sábado, 9 de junio de 2012

Evaluación del blog

A pesar de no gustarme el blog en un principio, creo que ha sido muy productivo para conocer cosas y ampliar nuestro conocimiento, aunque yo lo veo como una perdida de tiempo, pues quita tiempo de algunas asignaturas pero pienso que es una tarea mas en otro formato, a pesar de todo ha sido divertido hacer una cosa nuevo.

El reciclaje

Reciclado en la fuente
Uno de los problemas es que el acento debe ponerse en cómo generar cada vez menos residuos, de cualquier índole como residuos plásticos.
La reducción en la fuente se refiere directamente al diseño y a la etapa productiva de los productos, principalmente envases, antes de ser consumidos. Es una manera de concebir los productos con un nuevo criterio ambiental; generar menos residuos. Y esto es aplicable a todas las materias primas: vidrio, papel, cartón, aluminio y plásticos.


En el caso de estos últimos residuos, la reducción en la fuente es responsabilidad de la industria petroquímica (fabricante de los diferentes tipos de plásticos), de la industria transformadora (que toma esos plásticos para fabricar los diferentes productos finales), y de quien diseña el envase (envasador).
Aunque podría decirse que al consumidor también le cabe una buena parte de la responsabilidad: en las góndolas de los supermercados es él quien tiene la facultad de elegir entre un producto que ha sido concebido con criterio de reducción en la fuente y otro que derrocha materia prima y aumenta innecesariamente el volumen de los residuos.
Reducir en la fuente significa referirse a la investigación, desarrollo y producción de objetos utilizando menos recursos (materia prima). De ahí su denominación porque se aplica a la faz productiva. Al utilizar menos materia prima se producen menos residuos y además se aprovechan mejor los recursos naturales.
Minimizar el volumen y peso de los residuos es el primer paso para resolver el problema global de los mismos. Todo gerenciamiento de los Residuos Sólidos Urbanos debe comenzar por la reducción en la fuente.

Las principales ventajas de la reducción en la fuente:
-Disminuye la cantidad de residuos; es mejor no producir residuos que resolver qué hacer con ellos.
-Ayuda a que los rellenos sanitarios no se saturen rápidamente.
-Se ahorran recursos naturales -energía y materia prima- y recursos financieros
-La reducción en la fuente aminora la polución y el efecto invernadero. Requiere menos energía transportar materiales más livianos. Menos energía significa menos combustible quemado, lo que implica a su vez menor agresión al ambiente.

Etapas para reciclar el plástico
:


A)Recolección: Todo sistema de recolección diferenciada que se implemente descansa en un principio fundamental, que es la separación, en el hogar, de los residuos en dos grupos básicos: residuos orgánicos por un lado e inorgánicos por otro; en la bolsa de los residuos orgánicos irían los restos de comida, de jardín, y en la otra bolsa los metales, madera, plásticos, vidrio, aluminio. Estas dos bolsas se colacarán en la vía pública y serán recolectadas en forma diferenciada, permitiendo así que se encaucen hacia sus respectivas formas de tratamiento.

B)Centro de reciclado: Aquí se reciben los residuos plásticos mixtos compactados en fardos que son almacenados a la interperie. Existen limitaciones para el almacenamiento prolongado en estas condiciones, ya que la radiación ultravioleta puede afectar a la estructura del material, razón por la cual se aconseja no tener el material expuesto más de tres meses.

C)Clasificación: Luego de la recepción se efectúa una clasificación de los productos por tipo de plástico y color. Si bien esto puede hacerse manualmente, se han desarrollado tecnologías de clasificación automática, que se están utilizando en países desarrollados. Este proceso se ve facilitado si existe una entrega diferenciada de este material, lo cual podría hacerse con el apoyo y promoción por parte de los municipios.

Reciclado Mecánico
El reciclado mecánico es el más difundido en la opinión pública en la Argentina, sin embargo este proceso es insuficiente por sí solo para dar cuenta de la totalidad de los residuos.
El reciclado mecánico es un proceso físico mediante el cual el plástico post-consumo o el industrial (scrap) es recuperado, permitiendo su posterior utilización.

Los plásticos que son reciclados mecánicamente provienen de dos grandes fuentes:
-Los residuos plásticos proveniente de los procesos de fabricación, es decir, los residuos que quedan al pie de la máquina, tanto en la industria petroquímica como en la transformadora. A esta clase de residuos se la denomina scrap. El scrap es más fácil de reciclar porque está limpio y es homogéneo en su composición, ya que no está mezclado con otros tipos de plásticos. Algunos procesos de transformación (como el termoformado) generan el 30-50% de scrap, que normalmente se recicla.
-Los residuos plásticos proveniente de la masa de Residuos Sólidos Urbanos (RSU).

Estos se dividen a su vez en tres clases:
A)Residuos plásticos de tipo simple: han sido clasificados y separados entre sí los de distintas clases.
B)Residuos mixtos: los diferentes tipos de plásticos se hallan mezclados entre sí.
C)Residuos plásticos mixtos combinados con otros residuos: papel, cartón, metales.

Proceso del plástico por soldadura

La soldadura es un proceso de fabricación en donde se realiza la unión de dos materiales, (generalmente metales o termoplásticos), usualmente logrado a través de la coalescencia (fusión), en la cual las piezas son soldadas fundiendo ambas y pudiendo agregar un material de relleno fundido (metal o plástico), para conseguir un baño de material fundido (el baño de soldadura) que, al enfriarse, se convierte en una unión fija. A veces la presión es usada conjuntamente con el calor, o por sí misma, para producir la soldadura. Esto está en contraste con la soldadura blanda (en inglés soldering) y la soldadura fuerte (en inglés brazing), que implican el derretimiento de un material de bajo punto de fusión entre piezas de trabajo para formar un enlace entre ellos, sin fundir las piezas de trabajo.
Muchas fuentes de energía diferentes pueden ser usadas para la soldadura, incluyendo una llama de gas, un arco eléctrico, un láser, un rayo de electrones, procesos de fricción o ultrasonido. La energía necesaria para formar la unión entre dos piezas de metal generalmente proviene de un arco eléctrico. La energía para soldaduras de fusión o termoplásticos generalmente proviene del contacto directo con una herramienta o un gas caliente.
Mientras que con frecuencia es un proceso industrial, la soldadura puede ser hecha en muchos ambientes diferentes, incluyendo al aire libre, debajo del agua y en el espacio. Sin importar la localización, sin embargo, la soldadura sigue siendo peligrosa, y se deben tomar precauciones para evitar quemaduras, descarga eléctrica, humos venenosos, y la sobreexposición a la luz ultravioleta.
Hasta el final del siglo XIX, el único proceso de soldadura era la soldadura de fragua, que los herreros han usado por siglos para juntar metales calentándolos y golpeándolos. La soldadura por arco y la soldadura a gas estaban entre los primeros procesos en desarrollarse tardíamente en el siglo, siguiendo poco después la soldadura por resistencia. La tecnología de la soldadura avanzó rápidamente durante el principio del siglo XX mientras que la Primera Guerra Mundial y la Segunda Guerra Mundial condujeron la demanda de métodos de junta confiables y baratos. Después de las guerras, fueron desarrolladas varias técnicas modernas de soldadura, incluyendo métodos manuales como la Soldadura manual de metal por arco, ahora uno de los más populares métodos de soldadura, así como procesos semiautomáticos y automáticos tales como Soldadura GMAW, soldadura de arco sumergido, soldadura de arco con núcleo de fundente y soldadura por electroescoria. Los progresos continuaron con la invención de la soldadura por rayo láser y la soldadura con rayo de electrones a mediados del siglo XX. Hoy en día, la ciencia continúa avanzando. La soldadura robotizada está llegando a ser más corriente en las instalaciones industriales, y los investigadores continúan desarrollando nuevos métodos de soldadura y ganando mayor comprensión de la calidad y las propiedades de la soldadura.
Se dice que es un sistema porque intervienen los elementos propios de este, es decir, las 5 M: mano de obra, materiales, máquinas, medio ambiente y medios escritos (procedimientos). La unión satisfactoria implica que debe pasar las pruebas mecánicas (tensión y doblez). Las técnicas son los diferentes procesos (SMAW, SAW, GTAW, etc.) utilizados para la situación más conveniente y favorable, lo que hace que sea lo más económico, sin dejar de lado la seguridad.




Proceso de fabricación del plástico por extrusión

Los barriles de extrusión con zona de alimentación acanalada ofrecen, con muchas resinas, productividades que son entre 20 y 40% más altas, por cada revolución, que las que se pueden obtener en un barril del mismo diámetro pero con superficie interior lisa. Una sección de alimentación acanalada mejora el transporte de los sólidos e incrementa la función de bomba de los extrusores, aumentando la productividad a una tasa de velocidad dada, en rpm, y reduciendo la cantidad de energía aplicada al polímero; en consecuencia, se reduce también la temperatura de procesamiento de la resina. Se ha visto que se puede neutralizar la acción de la sección acanalada calentando los canales para que actúen con la versatilidad de una pared lisa.



La sección de alimentación de un extrusor de 3.5 pulgadas de diámetro puede contener desde ocho hasta 18 canales distribuidos uniformemente alrededor del barril en la zona de alimentación. En general, las resinas de mayor viscosidad, como el HMW-HDPE o polipropileno se benefician cuando el número de canales es mayor. Cuando la resina tiene una viscosidad baja, es preferible contar con un número reducido de canales. Si se emplean demasiados canales, la resina puede ser alimentada a una velocidad tan alta hacia la zona de compresión que se pueden presentar ineficiencias en el proceso de fundición de la resina y problemas de mezclado de la misma.
Típicamente, los canales tienen un ancho de 0,15 a 0,3 pulgadas y su profundidad aumenta hacia la parte de atrás de la zona de alimentación. En un comienzo la profundidad de los canales es de 0,12 a 0,37 pulgadas y se inclinan hasta llegar una profundidad de cero en una distancia de tres a cuatro diámetros después de haber pasado aguas abajo por la boca de alimentación de la extrusora. Los canales se fabrican paralelamente al eje de los tornillos.
Las secciones de alimentación están diseñadas con camisas de agua de enfriamiento para proporcionar un flujo intenso de agua alrededor de la abertura de alimentación y se extiende hacia la sección acanalada. Esto previene que la resina se funda en los canales. Por el contrario, para reducir la acción de alimentación forzada de los canales y disminuir la función de bombeo del extrusor para materiales como el nylon o policarbonato, se puede aplicar calor (de 90 a 150 C) en los canales. Esto inicia la fundición de la resina y evita un aumento peligroso de la presión hacia el final de los canales.

Proceso de fabricación de plástico por inyección

En ingeniería, el moldeo por inyección es un proceso semicontinuo que consiste en inyectar un polímero, cerámico o un metal en estado fundido (o ahulado) en un molde cerrado a presión y frío, a través de un orificio pequeño llamado compuerta. En ese molde el material se solidifica, comenzando a cristalizar en polímeros semicristalinos. La pieza o parte final se obtiene al abrir el molde y sacar de la cavidad la pieza moldeada.
El moldeo por inyección es una técnica muy popular para la fabricación de artículos muy diferentes. Sólo en los Estados Unidos, la industria del plástico ha crecido a una tasa de 12% anual durante los últimos 25 años, y el principal proceso de transformación de plástico es el moldeo por inyección, seguido del de extrusión. Un ejemplo de productos fabricados por esta técnica son los famosos bloques interconectables LEGO y juguetes Playmobil, así como una gran cantidad de componentes de automóviles, componentes para aviones y naves espaciales.
Los polímeros han logrado sustituir otros materiales como son madera, metales, fibras naturales, cerámicas y hasta piedras preciosas; el moldeo por inyección es un proceso ambientalmente más favorable comparado con la fabricación de papel, la tala de árboles o cromados. Ya que no contamina el ambiente de forma directa, no emite gases ni desechos acuosos, con bajos niveles de ruido. Sin embargo, no todos los plásticos pueden ser reciclados y algunos susceptibles de ser reciclados son depositados en el ambiente, causando daños al medio ambiente.
La popularidad de este método se explica con la versatilidad de piezas que pueden fabricarse, la rapidez de fabricación, el diseño escalable desde procesos de prototipos rápidos, altos niveles de producción y bajos costos, alta o baja automatización según el costo de la pieza, geometrías muy complicadas que serían imposibles por otras técnicas, las piezas moldeadas requieren muy poco o nulo acabado pues son terminadas con la rugosidad de superficie deseada, color y transparencia u opacidad, buena tolerancia dimensional de piezas moldeadas con o sin insertos y con diferentes colores.


Microscopio de haz de electrones o efecto túnel

La microscop a de efecto t unel (MET) es una t ecnica poderosa para la observaci on de super cies a nivel at omico.
Provee un per l tridimensional de una super cie lo cual es muy util para caracterizar dureza de la super cie, observar defectos en la super ficies y determinar el tamaño y conformacion de moleculas y agregados en la misma. Su desarrollo en 1981 fue merecedor del Premio Nobel de F sica en 1986 para sus inventores, Gerd Binning y Heinrich Rohrer (en IBM Zurich). MET mide la densidad de estados de un material usando corriente de efecto t unel. Una buena presici ón se considera 0:1nm de resoluci on lateral y 0:01nm de resoluci on en profundidad. Con esta resoluci on, los atomos individuales dentro del material son observados y manipulados. La MET puede ser usada no solamente en vaci o ultra alto sino tambien en aire y varios ambientes l iquidos o gaseosos, y en rangos de temperatura desde cerca del cero Kelvin hasta algunos cientos de grados Celsius.
La MET est a basada en el concepto de tunel cu antico. Cuando una punta conductora se acerca a la super cie del material a ser examinado, una polarizaci on (diferencia de tensi on) aplicada entre los dos puede permitir a los electrones crear un t unel en el vac o entre ellos. La corriente resultante de efecto t unel es una funci on de la posici on de la punta, la tensi on aplicada, y la densidad local de estados (DLE) de la muestra. La informaci on es adquirida por monitereo de la corriente a medida que la posici on de la punta recorre la super cie, y es mostrada en forma de imagen.
MET puede ser una t ecnica de alto desaf o, ya que requiere una super cie extremadamente limpia y lisa, puntas precisas, y un control de vibraci on excelente. Tradicionalmente, en el analisis del efecto de arreglos at omicos en el desempeño de un material, las sondas de difracci on han sido el pilar de este tipo de investigaciones. Pero estas t ecnicas solo funcionan cuando el orden cristalino se extiende por cientos de espaciamientos at omicos, raz on por la cual la MET ha abierto un mar de posibilidades en el estudio de la materia.

Procedimiento
Primero, se aplica una polarizaci on y la punta se acerca a la muestra con un control b asico de la punta. Control m as ajustado, del tipo piezoel ectrico, se requiere cuando la punta se encuentra cerca de la muestra manteniendo la separaci ón W en el rango de 47A , que es la posici on de equilibrio entre las interacciones de atracci on (3 < W < 10A ) y repulsi on (W < 3A ). En este caso, la polarizaci on aplicada causar a que los electrones formen un t unel entre la punta y la muestra, creando corriente que puede ser medida. Una vez que el t unel est a establecido, la polarizaci ón y la posici on respecto de la muestra puede ser modi cada
y obtener los datos que producen las modi caciones.
Si la punta se mueve a trav es del plano x y, los cambios en la estructura de la super cie causan cambios de
corriente. Estos cambios son mapeados en la im agen y los cambios en la corriente respecto de la posici on pueden ser medidos, o la altura z, de la punta correspondiente a una corriente constante. Estos dos modos son llamados modo constante de altura y modo constante de corriente, respectivamente.
En el modo constante de corriente, realimentaci on electr onica ajusta la altura aplicando una tensi on al control piezoel ectrico. Esto conduce a una variaci on de altura y en consecuencia la imagen proviene de la topograf a de la punta a trav es de la muestra y se obtiene una densidad de carga constante en la super cie; esto signi ca contraste en la imagen debido a las variaciones en la densidad de carga. En el modo de altura constante, la tensi on y la altura son constantes mientras que la corriente cambia para mantener la tensi on en un valor; esto lleva a una imagen hecha de cambios de corriente sobre la super cie, la cual puede estar relacionada a la densidad de carga del material. El bene cio de usar el modo de altura constante es que es mas r apido, mientras que los movimientos que requieren respuestas piezoel ectricas requieren mas tiempo
para regristrar los cambios en el modo de corriente constante que la respuesta de tensi on en el modo de altura constante. Todas las im agenes producidas por MET son en escala de grises, se puede agregar color dentro del proceso posterior de procesamiento para poder visualizar en forma clara algunas caracter sticas.
Adem as de observar la muestra, se puede informaci on de la estructura electr onica de la muestra haciendo un barrido de tensi on y midiendo la corriente en un lugar espec co.
Este tipo de medici on es llamada espectroscop a de efecto t unel (EET) y resulta generalmente en un esquema de la densidad local de estados como funci on de la energia de la muestra.





Fullereno

Qué son los fullerenos
El hallazgo casual del fullereno se produjo al irradiar un disco de grafito con un laser y mezclar el vapor de carbono resultante mediante una corriente de helio. Cuando se examinó el residuo cristalizado, se encontraron moléculas constituidas por 60 átomos de carbono. Intuyendo que estas moléculas tenían una forma semejante a la cúpula geodésica construida con motivo de una Exposición Universal en Montreal en 1967 por el arquitecto Buckminster Fuller, fueron nombradas como Buckminsterfullerenos o más comúnmente como fullerenos
Se trata de un material obtenido por interacción de átomos de carbono C60 en fase gaseosa, logrando que los átomos de carbono se unieran en hexágonos y con dobles enlaces resonantes entre átomos de carbono vecinos, como si se tratara del benceno.
En la Unión de Arizona y en el Instituto Max Planck, a través de descargas eléctricas con electrodos de grafito en atmósfera de helio y disolución en tolueno, pudo obtenerse un polvo que permitió su estudio mediante espectrometría infrarroja-resonancia magnética nuclear y difracción de rayos X. Así se pudo identificar el Fullereno C60 y definir su estructura por medio de los típicos modelos orgánicos (12 pentágonos - 20 hexágonos con átomos de carbono tetravalente en los vértices). Otras estructuras se fueron descubriendo desde los C16 a C60 que pudieron corroborar para el más escéptico la estructura de balón similar a la pelota olímpica del fútbol mundial. En esa configuración los átomos de carbono de los hexágonos tienen dobles enlaces resonantes entre átomos vecinos como si se tratara del benceno.





Aplicaciones
Los polímeros son, sin duda, uno de los materiales que han encontrado una mayor aplicación debido a sus múltiples propiedades, así como también por su fácil procesabilidad y manejo. Gracias a la incorporación de fullerenos en los polímeros, se conseguirían propiedades electroactivas y de limitación óptica. Esto podría tener sobre todo aplicación en recubrimiento de superficies, dispositivos conductores y en la creación de nuevas redes moleculares.
También son de aplicación en el campo de la medicina, gracias a sus propiedades biológicas. A este respecto, se consiguió que un fullereno soluble en agua mostrara actividad contra los virus de inmunodeficiencia humana que causan el SIDA.


Toxicidad
Considerando la reactividad de los fullerenos, éstos se tornan potencialmente tóxicos sobre todo si se toma en cuenta que son materiales lipofílicos que tienden a ser almacenados por los organismos en zonas de tejidos grasos. De ahí que Eva Oberdorster (2004) haya corroborado que los fullerenos como el C60 pueden inducir un estrés oxidante en los cerebros de los peces róbalo. Más aun, Lovern y Klaper (2006) sugieren un considerable grado de mortalidad del Daphnia Magna (un diminuto crustáceo, popular alimento para peces de acuario, y usualmente utilizado por su sensibilidad en estudios de ecotoxicológicos) cuando son expuestos a nanopartículas de dióxido de titanio (TiO2) y al fullereno C60.
Otros estudios han señalado que, además de que ciertos nanomateriales podrían ser efectivos como agentes bactericidas tanto para bacterias positivas como negativas en un cultivo dado, en particular los fullerenos del tipo C60 podrían potencialmente inhibir de modo importante el crecimiento y la respiración de los microbios (Epa 2005).

viernes, 8 de junio de 2012

Nanotecnología: nanomateriales y nanotubos


La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
Esta nuevas estructuras con precisión atómica, tales como nanotubos de carbón, o pequeños instrumentos para el interior del cuerpo humano pueden introducirnos en una nueva era, tal como señala Charles Vest (ex-presidente del MIT). Los avances nanotecnológicos protagonizarían de esta forma la sociedad del conocimiento con multitud de desarrollos con una gran repercusión en su instrumentación empresarial y social.
La nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la"nanotecnología molecular", esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation"introdujo las promesas y peligros de la manipulación molecular. Actualmente preside el Foresight Institute.
El padre de la "nanociencia", es considerado Richard Feynman, premio Nóbel de Física, quién en 1959 propuso fabricar productos en base a un reordenamiento de átomos y moléculas. En 1959, el gran físico escribió un artículo que analizaba cómo los ordenadores trabajando con átomos individuales podrían consumir poquísima energía y conseguir velocidades asombrosas.
Existe un gran consenso en que la nanotecnología nos llevará a una segunda revolución industrial en el siglo XXI tal como anunció hace unos años, Charles Vest (ex-presidente del MIT).
Supondrá numerosos avances para muchas industrias y nuevos materiales con propiedades extraordinarias (desarrollar materiales más fuertes que el acero pero con solamente diez por ciento el peso), nuevas aplicaciones informáticas con componentes increíblemente más rápidos o sensores moleculares capaces de detectar y destruir células cancerígenas en las partes más dedlicadas del cuerpo humano como el cerebro, entre otras muchas aplicaciones.
Podemos decir que muchos progresos de la nanociencia estarán entre los grandes avances tecnológicos que cambiarán el mundo.

Nanomateriales son materiales cuyos principales constituyentes tienen una dimensión entre 1 nm y 100 nm. Los “nanomateriales” se están usando en centenares de aplicaciones y productos de consumo, desde las pastas de dientes hasta las baterías, pinturas y ropa.
El desarrollo de estas sustancias innovadoras es muy importante para la competitividad de la industria europea, pero debido a las incertezas relativas a los riesgos que pueden conllevar su uso, es necesario disponer de una definición clara y precisa para asegurar que se aplican los requisitos apropiados en el ámbito de la seguridad química(Reglamentos REACH y CLP).

Los nanotubos de carbono de otros elementos representan probablemente hasta el momento el más importante producto derivado de la investigación en fullerenes (los científicos hispanos no se ponen de acuerdo sobre la traducción de la palabra fullerene - en distintos trabajos se pueden encontrar la palabra original, o fullerenos o fulerenos...Nosotros utilizaremos siempre la original utilizado en los círculos de investigadores, para así evitar confusión). Los nanotubos llevaron a los científicos y premios Nobel Robert Curl, Harold Kroto y Richard Smalley a descubrir el buckyball C60.
Los nanotubos se componen de una o varias láminas de grafito u otro material enrolladas sobre sí mismas. Algunos nanotubos están cerrados por media esfera de fullerene, y otros no están cerrados. Existen nanotubos monocapa (un sólo tubo) y multicapa (varios tubos metidos uno dentro de otro, al estilo de las famosas muñecas rusas). Los nanotubos de una sola capa se llaman single wall nanotubes (SWNTS) y los de varias capas, multiple wall nanotubes (MWNT)
Los nanotubos tienen un diámetro de unos nanometros y, sin embargo, su longitud puede ser de hasta un milímetro, por lo que dispone de una relación longitud:anchura tremendamente alta y hasta ahora sin precedentes.

Observatorios Astronómicos Terrestres

La variedad de observatorios que se encuentran repartidos por la Tierra son utilizados por la astrofísica para la observación de fenómenos astronómicos, distinguiéndose entre las longitudes de onda captadas en ópticos (radiación visible), infrarrojos, gamma, radio, etc. La era de dichos observatorios comenzó en 1608 con la construcción del primer telescopio por el óptico holandés Hans Lippershey. En 1609, Galileo Galilei construyó un telescopio de refracción, con los que descubrió las fases de Venus, lo que indicaba el giro de éste planeta alrededor del Sol, lunas de Júpiter y montes de la Luna.
El Observatorio del Roque de los Muchachos del IAC, en la isla canaria de La Palma (España), se encuentra en uno de los tres paraísos astronómicos de nuestro planeta, junto a la cima del volcán Mauna Kea en Hawai y el Desierto de Atacama en Chile. El emplazamiento se halla por encima del "mar de nubes", a 2.400 metros sobre el nivel del mar, donde, gracias a los Vientos Alisios, la atmósfera es estable y muy transparente.
En Mauna Kea (Montaña Blanca en idioma nativo), un volcán apagado en la isla de Hawai que alcanza los 4.205 metros sobre el nivel del mar, lo que la convierte en la montaña insular más alta del mundo, se encuentran 13 telescopios en funcionamiento. Nueve de ellos se dedican a astronomía óptica e infrarroja, tres a astronomía submilimétrica y uno a radioastronomía. Incluye los telescopios óptico/infrarrojo más grandes del mundo (los telescopios Keck), el mayor dedicado a infrarrojo (el UKIRT) y el mayor telescopio submilimétrico del mundo (el JCMT).
El enorme radiotelescopio de Arecibo, situado en la isla de Puerto Rico, tiene un diámetro de 305 metros, y su superficie está formada por unos 40.000 paneles de aluminio perforado, suspendidos sobre el suelo mediante una red de cables de acero. Suspendido a unos 150 metros sobre el reflector se encuentra una plataforma de 900 toneladas sostenida por 18 cables sujetos de tres enormes torres.
El Proyecto VLT (Very Large Telescope - Telescopio Muy Grande) es un sistema de cuatro telescopios ópticos con espejo de 8,2 metros separados, rodeados por varios instrumentos menores. El VLT se encuentra en el Observatorio Paranal sobre el cerro Paranal, una montaña de 2.635 metros localizada en el desierto de Atacama, al norte de Chile.
Futuros observatorios son los de ALMA (Atacama Large Millimeter Array), en Chile, que se prevé que esté en funcionamiento en 2010 constituyendo el radiotelescopio más potente del mundo con sus 111m de envergadura. China estudia construir uno de los telescopios más grande del mundo en la región suroccidental del Tíbet, con un espejo de 100 metros de diámetro.
El Gran Telescopio Canarias (GTC), situado en el Observatorio del Roque de los Muchachos, entrará en funcionamiento a comienzos del 2007. El tendrá alrededor de 27 m de altura y 13 m de ancho. Su espejo primario está formado por un mosaico de 36 espejos hexagonales independientes, con área colectora equivalente a 10,4 metros de diámetro.

martes, 29 de mayo de 2012

Exoplanetas



Los exoplanetas son planetas exteriores al Sistema Solar, el primero se descubrió en el año 1995 por Michael Mayor y Didier Queloz. La búsqueda de exoplanetas ha sido increíble desde entonces, y cada año se descubren más. Tanto es así que en la actualidad hay unos 350 exoplanetas descubiertos.
El descubrimiento de un exoplaneta fue la noticia que los astrónomos de todo el mundo esperaban para dar un primer paso en la búsqueda de un planeta similar al de la Tierra en el que pudiéramos encontrar vida, ya fuera inteligente o no, o al menos condiciones habitables, para tener un segundo hogar, dentro de miles de años, cuando nuestro planeta viera próximo su fin debido a la limitada vida de nuestra estrella madre, el Sol. Eso sin contar que seguramente el ser humano se cargue nuestro planeta, la Tierra, antes de que lo haga la Naturaleza. Sin embargo, la búsqueda de exoplanetas con estas características no ha sido fructífera, ya que la mayoría de los planetas encontrados son gigantes gaseosos, como Júpiter, y además con órbitas muy cercanas a su estrella (son más fáciles de detectar). Sin embargo, en espacioCiencia ya hemos tratado descubrimientos esperanzadores, como el descubrimiento de los planetas del sistema solar Gliese 581, a 20,5 millones de años luz de la Tierra.
Los científicos cada vez están más empeñados en encontrar un exoplaneta habitable, y para ello hace poco lanzaron al espacio el Telescopio Espacial Kepler, que pasará los próximos tres años (y seguramente más) buscando este tipo de planetas estudiando la variación de brillo en sus estrellas, para detectar qué planetas estarían en la zona habitable (distancia a la cual podría darse las condiciones de temperatura y presión para que el agua pudiera ser líquida). Podemos dar algunos datos curiosos sobre los exoplanetas, como que el más antiguo, formado hace unos 12.700 millones de años, es conocido como Matusalén, o que el más pequeño es incluso mayor que nuestro planeta.





Evolucion histórica de los materiales en la prehistoria

El descubrimiento de la fundición de los metales tuvo un impacto muy profundo en las culturas existentes. El espació dejó de ser, definitivamente, homogéneo, y las zonas mineras comenzaron a ser más ricas que las demás. Hubo un interés creciente por dominarlas, incluso por la fuerza. Aunque la fundición de los metales revela un mayor dominio del medio, esto no quiere decir que los pueblos que sabían procesar el bronce tuviesen culturas más avanzadas. La periodo de transición entre el Neolítico y la Edad del Cobre se le llama Eneolítico, aunque no todos los historiadores reconocen este período. En realidad, sólo la cultura micénica fue una civilización basada en la metalurgia del bronce. Pero también es cierto que el alfabeto surgió en sociedades que dominaban la metalurgia del hierro.
 
El cobre
El descubrimiento de la metalurgia del cobre no supuso el fin de la industria lítica. Algunas culturas tendrán ahora su época de mayor perfección; pero se irán aculturando con el tiempo. El cobre es un metal blando y de pocas aplicaciones, que en principio no competía con la piedra. Además, las demandas eran muchas y las zonas mineras pocas, lo que le hacía un metal muy caro.
El descubrimiento del cobre se realizó o en Egipto o en la altiplanicie del Kurdistán. Fue desde este último lugar, desde donde se inició su difusión por todo el mundo. Hacia el año 4000 a.C. ya se conoce el cobre en Egipto; hacia el 3500 a.C. aparece en Mesopotamia, Irán y la India; hacia el 3000 a.C. en el Egeo y China; y entre el 2500 y el 2000 a.C. en Europa. Los objetos de cobre entraron en Europa a través del valle del Kubán, pero los auténticos propagadores de la técnica de fundición fueron las culturas del vaso campaniforme.

El bronce
El bronce es una aleación de dos metales: cobre y estaño. Esto supone un avance significativo con respecto al estadio anterior. Además, hizo necesario que se pusiera en contacto las zonas mineras de cobre y las de estaño, lo que favoreció el comercio. El mineral de cobre se había descubierto en muchas partes, pero no el de estaño. Esta aleación consigue objetos más duros y duraderos que los de cobre.
El origen del bronce parece estar en Armenia, en torno al año 2800 a.C., pero aparece casi simultáneamente en la India, Irán, Sumeria y Egipto. Hacia el 2400 a.C. llega al Egeo y hacia el 1700 a.C. a Europa.


El hierro
En el último milenio a.C. aparece la siderurgia del hierro. El hierro ya era conocido, e incluso se han encontrado objetos de hierro fundido que se datan en torno al 1800 a.C. Sin embargo, los primeros en trabajar el hierro en abundancia fueron los hititas, hacia el 1300 a.C., que lo exportaban a Egipto y a Asiria. En Grecia el hierro entró con los dorios hacia el 1200 a.C. En el resto de Europa alcanzó su máximo esplendor hacia el 450 a.C., con la cultura de La Tène.
El hierro era un metal mucho más duro y duradero que el bronce, pero también necesita unas temperaturas mucho mayores para su fundición.

martes, 15 de mayo de 2012

Sistema solar

El Sistema Solar es un conjunto formado por el Sol y los cuerpos celestes que orbitan a su alrededor. Está integrado el Sol y una serie de cuerpos que están ligados gravitacionalmente con este astro: nueve grandes planetas (Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, y Plutón), junto con sus satélites, planetas menores y asteroides, los cometas, polvo y gas interestelar. Pertenece a la galaxia llamada Vía Láctea, que esta formada por unos cientos de miles de millones de estrellas que se extienden a lo largo de un disco plano de 100.000 años luz.
El Sistema Solar está situado en uno de los tres brazos en espiral de esta galaxia llamado Orión, a unos 32.000 años luz del núcleo, alrededor del cual gira a la velocidad de 250 km por segundo, empleando 225 millones de años en dar una vuelta completa, lo que se denomina año cósmico.
Los astronomos clasifican los planetas y otros cuerpos en nuestro Sistema Solar en tres categorías:
  • Primera categoría: Un planeta es un cuerpo celeste que está en órbita alrededor del Sol, que tiene suficiente masa para tener gravedad propia para superar las fuerzas rígidas de un cuerpo de manera que asuma una forma equilibrada hidrostática, es decir, redonda, y que ha despejado las inmediaciones de su órbita.
  • Segunda categoría: Un planeta enano es un cuerpo celeste que está en órbita alrededor del Sol, que tiene suficiente masa para tener gravedad propia para superar las fuerzas rígidas de un cuerpo de manera que asuma una forma equilibrada hidrostática, es decir, redonda; que no ha despejado las inmediaciones de su órbita y que no es un satélite.
  • Tercera categoría: Todos los demás objetos que orbitan alrededor del Sol son considerados colectivamente como "cuerpos pequeños del Sistema Solar".
Característica del sistema solar.
El Sistema Solar está formado por una estrella central, el Sol, los cuerpos que le acompañan y el espacio que queda entre ellos.
Nueve planetas giran alrededor del Sol: Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y el planeta enano, Plutón. La Tierra es nuestro planeta y tiene un satélite, la Luna. Algunos planetas tienen satélites, otros no.
Los asteroides son rocas más pequeñas que también giran, la mayoría entre Marte y Júpiter. Además, están los cometas que se acercan y se alejan mucho del Sol.
A veces llega a la Tierra un fragmento de materia extraterrestre. La mayoría se encienden y se desintegran cuando entran en la atmosfera. Son los meteoritos.
Los planetas, muchos de los satélites de los planetas y los asteroides giran alrededor del Sol en la misma dirección, en órbitas casi circulares. Cuando se observa desde lo alto del polo norte del Sol, los planetas orbitan en una dirección contraria al movimiento de las agujas del reloj.
Casi todos los planetas orbitan alrededor del Sol en el mismo plano, llamado eclíptica. Plutón es un caso especial ya que su órbita es la más inclinada y la más elíptica de todos los planetas.El eje de rotación de muchos de los planetas es casi perpendicular al eclíptico. Las excepciones son Urano y Plutón, los cuales están inclinados hacia sus lados.
El Sol contiene el 99.85% de toda la materia en el Sistema Solar. Los planetas están condensados del mismo material del que está formado el Sol, contienen sólo el 0.135% de la masa del sistema solar. Júpiter contiene más de dos veces la materia de todos los otros planetas juntos.
Los satélites de los planetas, cometas, asteroides, meteoroides, y el medio interplanetario constituyen el restante 0.015%.
Casi todo el sistema solar por volumen parece ser un espacio vacío que llamamos "medio interplanetario". Incluye varias formas de energía y se contiene, sobre todo, polvo y gas interplanetarios.
Desde siempre los humanos hemos observado el cielo. Hace 300 años se inventaron los telescopios. Pero la auténtica exploración del espacio no comenzó hasta la segunda mitad del siglo XX.
Desde entonces se han lanzado muchisimas naves. Los astronautas se han paseado por la Luna. Vehículos equipados con instrumentos han visitado algunos planetas y han atravesado el Sistema Solar. Más allá, la estrella más cercana es Alfa Centauro. Su luz tarda 4,3 años en llegar hasta aquí. Ella y el Sol son sólo dos entre los 200 billones de estrellas que forman la Via Láctea, nuestra Galaxia. Hay millones de galaxias que se mueven por el espacio intergaláctico. Entre todas forman el Universo, cuyos límites todavía no conocemos. Pero los astrónomos continúan investigando.



Alexander Friedman

Alexander Friedman nació el 16 de junio de 1888 en un modesto departamento en San Petersburgo, su madre una joven estudiante de 19 años, casada desde los 16 con un compositor de música de unos 25 años.Cuando Alexander cumplía un año, la joven madre decidió -por el maltrato de su marido- dejarlo, llevándose a su pequeño hijo; pero lamentablemente la joven madre fue acusada ante los tribunales de "infidelidad conyugal", y fue obligada injustamente a separarse de su hijo, devolverlo al padre y sentenciada al celibato; el padre de Alexander envió a su hijo con su abuelo paterno, la ley dictó que la madre no podría ver a su hijo hasta que alcanzara la edad adulta. Parece ser que el abuelo paterno de Alexander permitió con discreción que su madre lo visitara con frecuencia; así, el abuelo y su madre indujeron al joven Alexander a estudiar en la Universidad de San Petersburgo. Cuando contaba con 22 años de edad -en 1910- se graduó y se le concedió la medalla de oro por sus trabajos originales en Matemáticas. La Universidad de San Petersburgo una vez más confirmó su gran valía en la preparación científica, además de proseguir la vieja tradición de los grandes matemáticos rusos.


Su vida profesional
En 1913 fue llamado por sus méritos a trabajar en el Departamento de Meteorología, ya que tenía un gran interés por esta disciplina, laborando así en el Observatorio azrologicheskoy Pavlov. Sus primeros artículos fueron de gran importancia sobre: Matemática, Física y Meteorología, le interesó el estudio de los ciclones. Al poco tiempo, en agosto de 1914, Alemania le declaraba la guerra a Rusia y se inicia lo que sería la Primera Guerra Mundial. Friedman debido a su alta preparación, trabajó en la aviación rusa y posteriormente se convierte en el director de la primera industria de instrumentos para la aviación.
En 1920, Friedman colaboró con el Observatorio de Física de la Academia de Ciencias en Petrogrado (hoy San Petersburgo), fue director de Investigación en el departamento deMeteorología Teórica del Laboratorio de Geofísica. Son reconocidas sus grandes obras en la hidrodinámica, la meteorología dinámica, la física teórica y en 1922 trajo una ecuación general para la vorticidad, que se ha convertido en fundamental en la teoría de las previsiones meteorológicas.
En ese terrible año de 1920, en el invierno, Friedman daba clases en las aulas de la Universidad de Petrogrado sin calefacción alguna y había escaeces de alimento, pero tanto él como sus discípulos tenían una gran decisión de aprender e investigar, uno de ellos fue George Gamow (1904-1963), quien llevó adelante las ideas de Friedman y pronosticó el Fondo Cósmico de radiación de microondas que es prueba del BIG BANG y de la Expansión del Universo; los trabajos de Gamow nos recuerdan a Friedman.
En 1922 – 1924 propuso un modelo del universo no estacionario, lo que constituyó la base de la cosmología moderna. En 1922 Friedman descubrió una de las primeras soluciones cosmológicas de las ecuaciones de la relatividad general, la correspondiente a un universo en expansión.
En 1924 – 1925 Friedman junto a L. Keller trabajaron en las características del flujo turbulento, y construyó un sistema completo de ecuaciones relacionadas con las fluctuaciones de velocidad y presión en los dos puntos de la corriente en diferentes puntos en el tiempo. Estos trabajos sentaron las bases de la moderna teoría estadística de la turbulencia.

Stephen Hawking

Stephen William Hawking; Oxford, Reino Unido, 1942. Físico teórico británico. Estudió matemáticas y física en el University College de Oxford, donde se licenció en 1962. En 1966 se doctoró en el Trinity Hall de Cambridge. A principios de los años sesenta tuvo los primeros síntomas de esclerosis lateral amiotrófica (ELA), enfermedad degenerativa neuromuscular que no le ha impedido progresar en su actividad intelectual. Su interés científico se centró en el campo de la relatividad general, en particular en la física de los agujeros negros. En 1971 sugirió la formación, a continuación del big-bang, de numerosos objetos, denominados «miniagujeros negros», que contendrían alrededor de mil millones de toneladas métricas de masa, pero ocuparían solo el espacio de un protón, circunstancia que originaría enormes campos gravitatorios, regidos por las leyes de la relatividad. En 1974 propuso, de acuerdo con las predicciones de la física cuántica, que los agujeros negros emiten partículas subatómicas hasta agotar su energía, para finalmente estallar. Ese mismo año fue elegido miembro de la Royal Society; tres años más tarde fue nombrado profesor de física gravitacional en Cambridge, donde dos años más tarde obtuvo la cátedra Lucasiana de matemáticas, la misma que ocupó Isaac Newton. Sus esfuerzos para describir desde un punto de vista teórico las propiedades de los agujeros negros, así como la relación que estas propiedades guardan con las leyes de la termodinámica clásica y de la mecánica cuántica, se recogen en sus obras The Large Scale Structure of Space-Time (1973, en colaboración con G.F.R. Ellis), Superspace and Supergravity (1981), The Very Early Universe (1983), y el best-seller Historia del tiempo: del Big Bang a los agujeros negros (1988).

martes, 24 de abril de 2012

Diámetro de los planetas

SOL
El Sol es una estrella compuesta por más de 70 elementos distintos, entre los cuales podemos mencionar al Hidrógeno (81,76%), Helio (18,17%), Oxígeno, Hierro, Magnesio, entre otros que llegan a representar el 0,07% restante. Es un cuerpo gaseoso aunque algunos la consideran dentro del estado de plasma debido a la alta temperatura a la que se encuentra. Está a 150 millones de kilómetros de la Tierra, su diámetro es aproximadamente de 1´400,000 kilómetros y posee una masa equivalente a 332,000 veces el de la tierra.

¿Qué tiempo de vida tiene el sol?
Puesto que aproximadamente cada segundo el sol pierde 4´000,000 de toneladas de materia en forma de radiación, se estima que el sol llegará a agotar la totalidad del hidrógeno en 5´000,000 de años.

¿Cuánto dura "un día" en el sol?
La rotación solar dura el equivalente a 26 días 19 horas y 12 minutos terrestres. Es decir, 24 horas del sol equivalen a 643 horas y 12 minutos de la tierra. Obviamente luego de ese tiempo no habrá "noche" tal como la conocemos sino que se completará un ciclo de rotación sobre su propio eje.

MERCURIO
Mercurio es uno de los planetas más pequeños de nuestro sistema solar, prácticamente carece de atmósfera. Si la pudieramos ver de cerca veríamos un panorama parecido al de la Luna, una superficie bombardeada constantemente por meteoritos.
Posee una alta densidad ( 5,42 g/cm3) , su temperatura varía dependiendo de que esté o no expuesta al sol pasando de 430ºC de día a -180ºC de noche, es el planeta que mayor variación de temperatura posee, ésto debido a su proximidad al sol. La gravedad en la superficie de éste planeta es de 0,376 veces el de la tierra, es decir, que allá nuestro peso sería menor que el de aquí en la tierra.
Su distancia media al sol es de 57´909,175,000 kilómetros, su rotación es bastante lenta llegando a durar un día en Mercurio el equivalente a 58,65 días terrestres. Asímismo el año en Mercurio (tiempo de traslación circundando al Sol) dura en términos terrestres 87,97 días (poco menos de tres meses terrestres). No posee satélites.
La superficie de Mercurio (nombrado en honor al mensajero de los pies alados de la mitología romana) tal como lo mencionamos al inicio muestra fuertes impactos de meteoritos y asteroides que chocaron con él durante su existencia. También presenta antiguos flujos de lava producto de actividad geológica en sus inicios probablemente. Pese a que se ha encontrado una atmósfera muy ténue científicos han logrado ubicar agua congelada en el fondo de los cráteres en los polos norte y sur del pequeño planeta.

VENUS
Este planeta se encuentra a 108'208,930 kilómetros del sol y posee una atmósfera compuesta mayormente de dióxido de carbono (96%), nitrógeno (3% aprox.) además de oxígeno, vapor de agua, monóxido de carbono, cloruro y fluoruro de hidrógeno, entre otros elementos. Está compuesto principalmente por hierro, oxígeno, nitrógeno, y otros elementos. Posee principalmente rocas basálticas y materiales alterados.
A Venus lo podemos ver claramente en el cielo durante los atardeceres o al amanecer debido a que es el planeta que más cerca logra pasar de la tierra (aproximadamente 38'000,000 km), esto ocurre cada 19 meses.
Al parecer posee cadenas montañosas y gran actividad volcánica. Su temperatura media en superficie es de 456.85ºC , su densidad llega a ser de 5,24 g/cm3 , su gravedad es de 0,903 veces la de la tierra.
El día en Venus dura, en términos terrestres, 243,01 días en movimiento contrario al de nuestro planeta (retrógrado) y un año en Venus equivale a 224,7 días terrestres, es decir, que un día en Venus es más largo que su año. No posee satélites conocidos.
Venus posee una cola cargada de iones de cerca de 43 millones de kilómetros de largo que se extiende en dirección opuesta al Sol. Esta "cola" de iones se forma a partir de los bombardeos de iones procedentes de la atmósfera superior del planeta, estos son provocados, a su vez, por los vientos solares. Esta fue descubierta en 1979 pero fue vista y confirmada por el Solar Heliospheric Observatory (SOHO) en 1997.

TIERRA
Nuestro planeta posee una aceleración de la gravedad igual a 9,78 m/s2 , su masa es de 5,98 x1024 Kg., se encuentra ubicado a una distancia al sol de 149 600 000 kilómetros. La atmósfera está compuesta por diversos elementos los cuales son Nitrógeno (78.09%), Oxígeno (20.95%), Argón (0.93%), Dióxido de carbono (0.03%) y Neón, Helio, Criptón, Hidrógeno, Xenón, ozono y Radón con menos de 0.0001%. Como todos sabemos, nuestro planeta demora aproximadamente 24 horas en girar sobre su propio eje (para ser más exactos lo hace en 23,93 horas), mientras que tarda 365,256 días en girar en movimiento traslacional respecto del sol.

MARTE
Marte, más conocido como "el planeta rojo" está ubicado a una distancia promedio al sol de 227 900 000 kilómetros, su masa es de 6,421 x1023. kg. La composición de su atmósfera ha sido por años motivo de controversia así como la posibilidad de vida en éste planeta, pero luego del aterrizaje del explorador Mars Pathfinder se ha logrado determinar su composición atmosférica la cual contiene: Dióxido de carbono (95,32%), Nitrógeno (2,7%), y otros elementos que completan con un 1,8% la composición de la atmósfera marciana.
La temperatura superficial varía entre -140 ºC y 20 ºC, un día en Marte equivale a 1 día 37 minutos 26,4 segundos terrestres, el año en Marte dura 686,98 días terrestres (más largo que el nuestro), en los últimos años la NASA ha lanzado sondas para el estudio del planeta rojo, ellas nos han dado una idea más clara de los componentes de la atmósfera y el suelo marciano y en la actualidad se especula que para el año 2020 se podría enviar una misión tripulada a este planeta.
Marte ha sufrido desde su formación diversos acontecimientos naturales, vulcanismos, impactos de cuerpos extraños a este planeta así como grandes e impresionantes tormentas de arena. A diferencia de la Tierra en que la geología se basa en el movimiento de placas tectónicas Marte posee tectonismos verticales, los cuales se mueven en base a la presión que ejercen los movimientos internos de lava. Algunos científicos creen que Marte poseía hace unos 3.5 billones de años el flujo de agua más grande del Sistema Solar, sin embargo se desconoce cómo fue que aparecieron estos flujos, y menos aún se conoce acerca de qué pasó con ellos. Algunas pistas fueron entregadas en Mayo del 2002, fecha en la que el Mars Oddisey logró captar la presencia de inmensos bloques de hielo en los polos. El entendimiento de qué pasó con el agua en Marte es importantísima pues nos ayudará a entender y explicar cuál es el ciclo natural de vida de los planetas (incluyendo el nuestro).

JÚPITER
Cuando en 1610 Galileo Galilei se sorprendió al ver en el cielo cuatro "estrellas" muy cerca de Júpiter no se imaginaba que esas eran tan sólo un pequeño número del total de satélites que circundan el enorme planeta.
Júpiter es el planeta más grande del sistema solar, en ella podrían caber mas de mil tierras. Su masa alcanza los 1,9 x1027 kilogramos, se encuentra a 778'412,000 kilómetros de distancia promedio al Sol, posee una gran velocidad de rotación pues un día en Júpiter alcanza a durar 9 horas 50 minutos y 24 segundos, así mismo el año en Júpiter alcanza a durar 11,86 años terrestres. Es esencialmente líquido y su gravedad llega a ser 2,34 veces la terrestre , su atmósfera está compuesta por dos únicos elementos Hidrógeno (90%) y Helio (10%).
Júpiter posee un sistema de anillos bastante tenue el cual es muy difícil de observar y que fue descubierto por la sonda espacial Voyager. Júpiter se caracteriza por la Gran Mancha Roja que se encuentra en su atmósfera y que gira en sentido antihorario, esta mancha roja no es sino una gran tormenta que ya tiene más de 300 años de actividad y es del tamaño de tres planetas Tierra.
En los últimos años éste planeta ha estado en la mira de muchos telescopios debido a la colisión del cometa Shoemaker-Levy en 1997 el cual provocó una gran mancha similar a la Gran Mancha Roja, esto provocó cambios en su atmósfera así como en el medio ambiente de este planeta.

SATURNO
Saturno es el planeta en el sistema solar que se caracteriza por sus anillos, el estudio de dichos anillos ha sido punto de partida para diversas hipótesis las cuales en la actualidad aún no logran ser demostradas en su totalidad. Este planeta es el segundo más grande en el sistema solar y el menos denso ( su densidad promedio es menor que la del agua) y demora 10 horas y 39 minutos en girar sobre su propio eje, así mismo el año en Saturno equivale a 29 años y medio terrestres. Como podemos apreciar, sus días son más cortos, eso nos da una idea de la elevada velocidad a la que gira lo cual provoca el achatameinto de los polos en dicho cuerpo celeste.
Este planeta posee una masa de 5,688 x1026 kilogramos, la gravedad en la superficie llega a ser 1,19 veces la terrestre y su atmósfera está compuesta al igual que Júpiter por Hidrógeno y Helio, pero en distintas proporciones (97% y 3% respectivamente). Se encuentra a una distancia media del sol de 1,426'725,400 kilómetros. Galileo Galilei fue el primer astrónomo en avistarlo desde la Tierra, eso sucedió en 1610, en 1659 el astrónomo holandés Christiaan Huygens hizo público el descubrimiento de los anillos de Saturno y en 1675 el astrónomo de orígen italiano definió que los anillos estaban divididos en dos zonas las zonas A y B. Actualmente se conoce que los anillos están divididos hasta en siete zonas (A, B, C, D, E, F, y G).

URANO
Urano es más grande en tamaño que Neptuno, su masa no lo es, ésto debido a su densidad. A diferencia de la mayoría de planetas de nuestro Sistema Solar posee un eje de rotación bastante inclinado llegando incluso a tener a los polos prácticamente en el plano de la eclíptica y al igual que Venus posee una rotación retrógrada. Su órbita le otorga otra peculiaridad, ésta es casi circular.
Urano fue descubierto en 1781 por el astrónomo William Herschel quien lo confundió inicialmente con un cometa. La coloración verdosa característica de este planeta es debido a la presencia del metano en la atmósfera la cual está compuesta por los siguientes elementos: Hidrógeno (83% aprox.), Helio (15% aprox.) y Metano (2%). La gravedad en su superficie es de 0,93 veces la de la Tierra. Sus elementos constituyentes los podemos resumir en Oxígeno, nitrógeno, carbono, silicio, hierro, agua, metano, amoniaco, hidrógeno y helio. Un día en Urano dura 17 horas y 12 minutos terrestres mientras que su año dura 84,01 años terrestres. Urano es considerado un "gigante gaseoso" debido a que no posee superficie sólida.

NEPTUNO
En éste planeta (al igual que en Urano) también hay presencia de Metano en la atmósfera lo que provoca una coloración verdosa ya que la luz roja es absorbida. Las sondas Voyager lograron encontrar satélites adicionales a los ya vistos desde los radio y telescopios terrestres. La composición atmosférica es la siguiente : Hidrógeno, helio, metano, amoniaco y argón. Un día en Neptuno dura el equivalente a 19 días terrestres, mientras que el año dura el equivalente a 164,80 años terrestres. Este planeta se encuentra ubicado a una distancia media del Sol de 4,498'252,900 kilómetros, su gravedad superficial equivale a 1,22 veces la terrestre. Urano fue descubierto en 1846, fue el primer planeta cuya existencia fue anticipada matemáticamente en base a las observaciones realizadas a los planetas vecinos al mismo. Diecisiete días luego de haber sido descubierto fue descubierto uno de sus satélites: Tritón. No es visible a simple vista debido a su lejanía al Sol (¡¡¡más de cuatro mil millones de kilómetros de distancia!!!). Debido a la inusual órbita elíptica de su vecino Plutón actualmente es el planeta más distante al Sol, éste fenómeno ocurre durante veinte años terrestres y se repite cada 248 años terrestres. A diferencia de los otros tres planetas gaseosos de nuestro sistema solar (Júpiter, Saturno y Urano) Neptuno posee el diámetro más pequeño de entre este tipo de planetas. Se presume que su centro es del tamaño de la Tierra y estaría formado por agua. Debido a su inclinación respecto al Ecuador sus estaciones de verano duran 41 años, tiempo durante los cuales sus polos son irradiados por la escasa luz solar que llega.

martes, 17 de abril de 2012

Big Crunch

En cosmología la Gran Implosión (también conocida como Gran Colapso o directamente mediante el término inglés Big Crunch) es una de las teorías que se barajan sobre el destino último del universo. La teoría de la Gran Implosión propone un universo cerrado. Según esta teoría, si el universo tiene una densidad crítica superior a 3 átomos por metro cúbico, la expansión del universo, producida en teoría por la Gran Explosión (o Big Bang) irá frenándose poco a poco hasta que finalmente comiencen nuevamente a acercarse todos los elementos que conforman el universo, volviendo al punto original en el que todo el universo se comprimirá y condensará destruyendo toda la materia en un único punto de energía como el anterior a la Teoría de la Gran Explosión. El momento en el cual acabaría por pararse la expansión del universo y empezara la contracción depende de la densidad crítica del Universo; obviamente, a mayor densidad mayor rapidez de frenado y contracción y a menor densidad, más tiempo para que se desarrollaran eventos que se prevé tendrían lugar en un universo en expansión perpetua. La fase de contracción sería casi simétrica a la fase de expansión. En primer lugar, debido a la finitud de la velocidad de la luz, los astrónomos tardarían en ver cómo el desplazamiento al rojo de las galaxias distantes va desapareciendo primero de las más cercanas y finalmente de las más alejadas y se convierte en todas ellas en un desplazamiento al azul. La temperatura de la radiación cósmica empezaría a aumentar y llegaría un momento en el que sería idéntica a la actual, cuando el universo tuviera el mismo tamaño que hoy aunque su evolución habría proseguido con el tiempo y no sería un universo cómo el actual, sino en el mejor de los casos un universo menos rico en estrellas y más abundante en cadáveres estelares. La fase de contracción seguiría inexorablemente, y con ella el aumento de la temperatura de dicha radiación. Llegaría un momento en que todas las galaxias se fundieran en una aunque los choques entre estrellas serían aún raros. Mientras, la temperatura del fondo de radiación iría subiendo y empezaría a poner en peligro la supervivencia de las formas de vida que existieran por entonces, en un principio las que vivieran en planetas de tipo terrestre. En un momento dado, dicha temperatura sería de 300 grados Kelvin, impidiendo a los planetas antes mencionados deshacerse del calor acumulado y acabando por hacerse inhabitables (un auténtico efecto invernadero a escala universal). Más adelante, y con una contracción cada vez más acelerada y junto a ella un aumento desbocado de la temperatura de la radiación cósmica el universo se convertiría en un lugar infernal e inhabitable al menos para seres cómo nosotros y sin ayuda tecnológica con temperaturas de miles de grados debido a una radiación cósmica a ésa temperatura y a colisiones entre estrellas al disponer éstas de cada vez menos espacio. Al parecer, las estrellas serían en su mayoría destruidas no por colisiones entre ellas sino por el aumento de temperatura del universo. Éste llegaría a estar tan caliente que las estrellas no podrían deshacerse del calor acumulado en su interior y pasarían a absorberlo del exterior, hasta acabar por estallar. Tras ello, sólo quedarían agujeros negros y un plasma cada vez más caliente (muy distinto al existente tras el nacimiento del universo debido a que procedería de estructuras ya desaparecidas, por lo cual mostraría una gran asimetría en la densidad que presentara en diferentes puntos) en el que el aumento de temperatura destruiría primero los átomos y luego las propias partículas elementales, sólo dejando quarks. a la vez que los agujeros negros empezaban a fusionarse entre sí y a absorber materia hasta dar lugar a un único "super" agujero negro que significaría el fin del espacio, del tiempo, y de todo; del mismo modo que no tiene sentido preguntarse qué había "antes" de la Gran Explosión, tampoco puede preguntarse que habría "después" del Gran Crujido. Según esta teoría, tras la Gran Implosión podría tener lugar una nueva Gran Explosión; e incluso este universo podría proceder de un universo anterior que también se comprimió en su Gran Implosión. Si esto hubiera ocurrido repetidas veces, nos encontraríamos ante un universo oscilatorio; donde cada universo termina con una Gran Implosión y da lugar a un nuevo universo con una Gran Explosión. Sin embargo, no sólo no se conoce qué podría provocar tal rebote sino que la teoría de un universo oscilante entra en contradicción con la segunda ley de la termodinámica; a menos que en cada ciclo se produjera una destrucción y reinicio totales del universo, con la desaparición de las leyes físicas existentes y la aparición de nuevas leyes físicas ó la entropía se "rebobinara" durante la fase de contracción (se ha sugerido que el tiempo iría al revés durante ésta fase), la radiación existente en el universo aumentaría a costa de la materia debido a las reacciones de fusión nuclear producidas en el interior de las estrellas, en las que parte de la materia que compone los átomos que se fusionan se transforma en energía, con el resultado de que los "rebotes" serían cada vez más largos, hasta llegar a un escenario no demasiado diferente de la expansión indefinida por no hablar de que la cantidad de agujeros negros iría aumentando en cada ciclo; todo ello tendría cómo consecuencia que debería haber habido un número finito de ciclos antes del actual. Además, el reciente descubrimiento de la energía oscura ha provocado que muchos cosmólogos abandonen la teoría de este universo oscilante y junto con otros descubrimientos, también la de que el universo sea cerrado, aunque al no conocerse bien la naturaleza de la energía oscura aún no puede descartarse por completo un colapso futuro. En la actualidad, esta teoría es considerada obsoleta por algunos científicos, dado que la NASA ha conseguido datos que podrían apoyar la Teoría de la expansión continuada del Universo (Big Rip).

Big Bang

El Big Bang, literalmente gran estallido, constituye el momento en que de la "nada" emerge toda la materia, es decir, el origen del Universo. La materia, hasta ese momento, es un punto de densidad infinita, que en un momento dado "explota" generando la expansión de la materia en todas las direcciones y creando lo que conocemos como nuestro Universo. Inmediatamente después del momento de la "explosión", cada partícula de materia comenzó a alejarse muy rápidamente una de otra, de la misma manera que al inflar un globo éste va ocupando más espacio expandiendo su superficie. Los físicos teóricos han logrado reconstruir esta cronología de los hechos a partir de un 1/100 de segundo después del Big Bang. La materia lanzada en todas las direcciones por la explosión primordial está constituida exclusivamente por partículas elementales: Electrones, Positrones, Mesones, Bariones, Neutrinos, Fotones y un largo etcétera hasta más de 89 partículas conocidas hoy en día. En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una explosión gigantesca y que los diversos elementos que hoy se observan se produjeron durante los primeros minutos después de la Gran Explosión o Big Bang, cuando la temperatura extremadamente alta y la densidad del Universo fusionaron partículas subatómicas en los elementos químicos. Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos primarios del Big Bang, y los elementos más pesados se produjeron más tarde, dentro de las estrellas. Sin embargo, la teoría de Gamow proporciona una base para la comprensión de los primeros estadios del Universo y su posterior evolución. A causa de su elevadísima densidad, la materia existente en los primeros momentos del Universo se expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base física de la ley de Hubble.

Según se expandía el Universo, la radiación residual del Big Bang continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de fondo de microondas fueron detectados por los radioastrónomos en 1965, proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de la teoría del Big Bang. Uno de los problemas sin resolver en el modelo del Universo en expansión es si el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a contraer). Un intento de resolver este problema es determinar si la densidad media de la materia en el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico que indicaría que el Universo está cerrado.

Chernobyl

El 26 de abril de 1986 tuvo lugar el accidente nuclear más grave de la historia: la tragedia de Chernóbil.
La Central Nuclear de Chernóbil era administrada, en 1986, por el gobierno de la Unión de Repúblicas Socialistas Soviéticas (U.R.S.S.). En medio de una prueba en la cual se simulaba un corte eléctrico, el reactor 4 de la Central aumentó de forma imprevista su potencia, lo que produjo un sobrecalentamiento de su núcleo que hizo explotar el hidrógeno acumulado en su interior.
El material radiactivo liberado fue unas 500 veces superior al que liberó la bomba atómica que Estados Unidos arrojó sobre Hiroshima en 1945. Otra muestra de la relevancia de la tragedia de Chernóbil es que se trata del único accidente que alcanzó la categoría más alta (nivel 7) en la escala INES.
La explosión causó la muerte directa de 31 personas y obligó a que el gobierno de la U.R.S.S. ordenara la evacuación de 135.000 personas. La radiactividad emanada por el accidente llegó a diversos países europeos.
Pese a la catástrofe, el cierre definitivo de la Central se produjo recién en diciembre de 2000. Hoy, Chernóbil es una ciudad casi abandonada.
La contaminación del accidente de 1986 se extendió por todas las regiones cercanas a la planta nuclear, siendo Bielorrusia la nación más afectada. Todavía hoy la contaminación de Chernóbil se encuentra en el suelo, con estroncio-90 y cesio-137 que son absorbidos por las plantas y los hongos, ingresando, de esta forma, en la cadena alimenticia.
Las consecuencias del accidente de Chernóbil, por supuesto, también llegaron a los seres humanos y a la flora. Los casos de cáncer de tiroides se expandieron por Ucrania, Rusia y Bielorrusia. Por otra parte, tras la explosión, los pinos que se encontraban alrededor de la Central adquirieron un extraño color marrón y murieron. La zona pasó a conocerse como el Bosque Rojo.
El accidente de Chernóbil, por lo tanto, no es sólo una parte triste del pasado de la humanidad. Sus consecuencias siguen vigentes y deberían ser un incentivo para el fomento de las energías renovables y seguras.

viernes, 30 de marzo de 2012

Greepeace

Es una organización ecologista internacional que se autodefine como independiente económica y políticamente, fundada en 1971 en Vancouver, Canadá, por activistas antinucleares y objetores de conciencia estadounidenses opuestos a la Guerra de Vietnam.
Greenpeace defiende en sus estatutos la acción directa y la resistencia pacífica contra todo tipo de acciones que puedan deteriorar el medio ambiente, los recursos naturales y los derechos humanos.
Según la organización, el objetivo es "proteger y defender el medio ambiente y la paz, interviniendo en diferentes puntos del planeta donde se cometen atentados contra la naturaleza.
Greenpeace lleva a cabo campañas para detener el cambio climático, proteger la biodiversidad, acabar con el uso de la energía nuclear y las armas y fomentar la paz."
Las tácticas de confrontación empleadas por la ONG han recibido una cobertura mediática mundial desde su fundación. Entre las causas que han recibido mayor atención de los medios y la opinión pública, destacan:
  • Las campañas contra la caza y comercialización de ballenas.
  • La oposición a la caza de crías de focas.
  • La denuncia de vertidos tóxicos en todo el mundo.
  • La oposición a la energía nuclear.
  • Campañas en contra de los cultivos transgénicos.
  • En los últimos años, han ganado peso las campañas contra el cambio climático y de protección de la biodiversidad.
A fecha de 2007, la organización divide su acción global en:
  • Lucha contra el cambio climático a través de la promoción de una revolución energética.
  • Defensa de los océanos contra la pesca indiscriminada y a favor de la creación de reservas marinas.
  • Protección de los bosques más valiosos.
  • Promoción de la paz y el desarme en zonas de conflicto.
  • Creación de un futuro libre de sustancias tóxicas.
  • Promoción de la agricultura sostenible.
La organización no acepta donaciones económicas de gobiernos, partidos políticos o empresas; se autofinancia con aportaciones de socios y donantes, así como con la explotación comercial de productos con el nombre de Greenpeace.
De un grupo contracultural del Pacific Northwest a Greenpeace International
Greenpeace nació en 1971 cuando un grupo de activistas antinucleares canadienses, con la ayuda de algunos cuáqueros y objetores de conciencia estadounidenses que se habían refugiado en Canadá para no participar en Vietnam, formaron una pequeña organización llamada "Don't make a wave Committee" (Comité "No provoquéis un maremoto"), para protestar contra unas pruebas nucleares de EEUU, llevadas a cabo en un territorio con inestabilidad sísmica. Se temía que las pruebas, a parte del daño medioambiental, pudieran provocar un maremoto.
Como medida de protesta, el grupo fletó un viejo pesquero hacia el área donde se hacían los ensayos nucleares; pese a no conseguir, oficialmente, ningún efecto, la cobertura mediática de su acción derivó en el abandono de las pruebas por parte de Estados Unidos.
Como explica la propia Greenpeace en su página web, "en los años que siguieron, distintos grupos independientes, sin ninguna conexión entre sí, tomaron el nombre de Greenpeace en Estados Unidos, Nueva Zelanda y Australia."
David McTaggart, un antiguo empresario canadiense aficionado a la navegación, ofreció su velero para que la organización protestara en contra de las pruebas nucleares que Francia llevaba a cabo en el Pacífico en 1972 y 1973. Posteriormente, McTaggart sería presidente de la organización desde principios de los 80 hasta 1991.
Los apoyos recibidos a las campañas contestatarias de la organización dieron pie a la constitución de las primeras secciones europeas de Greenpeace, en el Reino Unido, Francia y Holanda. En 1978, las secciones en Norteamérica, el Pacífico y Europa convergieron en Greenpeace International.
Según la organización, "desde entonces, Greenpeace ha evolucionado sin demasiados sobresaltos. Han sido años de experiencias, de aciertos y de errores."

La organización
En 2007, Greenpeace asegura contar con tres millones de asociados en todo el mundo. "Con ellos, la organización intenta hacer frente a la creciente degradación medioambiental del planeta."
El máximo organismo de decisión de Greenpeace es su consejo internacional, constituido por un representante de cada una de las secciones estatales, que es elegido por la junta directiva de su país.
"Para asegurar una adecuada coordinación, existe una oficina internacional en Ámsterdam, que trabaja con las 31 secciones nacionales."

Críticas
Greenpeace ha sido criticada por gobiernos, empresas e incluso otros grupos ecologistas por motivos opuestos: la organización ha sido acusada de radical, amante del espectáculo mediático frívolo y poco constructiva, por un lado; y de haberse convertido en una organización para todos los públicos que necesita de la participación y condescendencia de los medios para justificar su supervivencia, por otro lado.
Entre quienes han criticado a Greenpeace por haberse convertido en una gigantesca y convencional organización, destaca Paul Watson, un antiguo activista que llegó a llamar a Greenpeace "las señoras Avon del movimiento medioambiental" (la familia Avon de Nueva York era conocida por su sentido caritativo, aburguesado y anticuado de la filantropía), debido al afán por conseguir financiación mediante campañas puerta a puerta.
Bradley Angel, otro antiguo miembro, dejó la organización para fundar Greenaction en 1997, debido a su disconformidad con una serie de despidos llevados a cabo en la sección estadounidense de Greenpeace.
El director de documentales islandés Magnus Gudmundsson (autor de Survival in the High North), ha centrado sus críticas a Greenpeace en el impacto social conseguido con las campañas contra la caza de ballenas y focas.
El documental fue considerado difamatorio por un tribunal noruego y Gudmundsson tuvo que pagar una indemnización a Greenpeace por daños y perjuicios.
La oposición de Greenpeace al uso de DDT, un pesticida sintético que puede causar cáncer y es letal para diversos animales y plantas, también ha provocado polémica, debido a que esta sustancia sintética era empleada para combatir la malaria en los países en desarrollo.
Las campañas de Greenpeace en contra del empleo y expansión de cosechas transgénicas han recibido réplicas de otros ecologistas, como Patrick Moore, antiguo miembro de la organización

Energía renovable

ENERGÍA MAREOMOTRIZ
La energía mareomotriz forma parte del grupo de las llamadas energías renovables y se obtiene a través de las energías cinética y potencial de las mareas es decir,
aprovecha la fuerza de las olas del mar de y de los cambios entre las mareas alta y baja que convierten su variación en energía eléctrica.
Tres cuartas partes de la superficie terrestre está cubierta por mares y océanos que constituyen un enorme depósito de energía renovable, limpia y no contaminante, pero los grandes costes que suponen la instalación de centrales mareomotrices, frenan la proliferación de su explotación energética.
Podemos distinguir entre tres formas de conseguir energía mareomotriz:
1-Energía de las olas, generadas por el viento, que se desplazan sin perder apenas energía, este viento es causado por las diferencias de presión atmosférica como consecuencia del calentamiento producido por el sol.
2-Energía de las mareas: las mareas son movimientos rítmicos del mar como consecuencia de la rotación terrestre, la energía que pasa con las mareas a través de diques, es igual a la energía que entra con la marea alta y que sale con la marea baja. La central mareomotriz más importante se encuentra en el estuario del río Rance en Francia.
3-Energía térmica Oceánica: Se basa en la diferencia de temperatura en los océanos, que varía enormemente entre la superficie y el fondo y se trata de usar el mar como un enorme colector de energía solar. La idea consiste en explotar la gran diferencia de temperatura entre superficial y la profunda para generar energía eléctrica.



Efecto invernadero.

El efecto invernadero es un fenómeno por el cual ciertos gases retienen parte de la energía emitida por el suelo tras haber sido calentado por la radiación solar. Se produce, por lo tanto, un efecto de calentamiento similar al que ocurre en un invernadero, con una elevación de la temperatura.
Aunque el efecto invernadero se produce por la acción de varios componentes de la atmósfera planetaria, el proceso de calentamiento ha sido acentuado en las últimas décadas por la acción del hombre, con la emisión de dióxido de carbono, metano y otros gases.
Es importante tener en cuenta que el efecto invernadero es esencial para el clima de la Tierra. El problema radica en la contaminación ya que, en una situación de equilibrio, la cantidad de energía que llega al planeta por la radiación solar se compensa con la cantidad de energía radiada al espacio; por lo tanto, la temperatura terrestre se mantiene constante.
El efecto invernadero es una de las causas del calentamiento global, la teoría que sostiene que la temperatura terrestre ha aumentado en los últimos tiempos y que, de no cambiar la conducta humana, seguirá aumentando. En caso que la temperatura aumente fuera de los niveles normales, aumentará el nivel del océano y se inundarán grandes regiones habitadas.
Para evitar estos problemas, varios gobiernos promueven el Protocolo de Kioto, un convenio internacional que busca limitar las emisiones de gases de efecto invernadero. Sin embargo, hay países que se niegan a aceptar el protocolo ya que consideran que puede ser perjudicial para sus economías.



jueves, 8 de marzo de 2012

Gattaca

En un “futuro no muy lejano” la humanidad, siguiendo esta tendencia de planificación total que tiene el hombre de hoy en día, se hará con el control de una de las pocas cuestiones que quedaban fuera del alcance del hombre, la nueva generación, su gestación y nacimiento. Años de avances genéticos culminan en el control de este aspecto. Amigos míos, la eugenesia manda en este futuro. La sociedad no distingue a la gente por la raza, sino por sus genes. Así la élite está formada por válidos, gente que ha sido hecha a la carta. Sus genes han sido seleccionados para ser la crème de la crème, para ser lo mejor que los padres pueden dar de sí. En el otro extremo tenemos a los no-validos o, como los denomina Irene “nacidos de Dios”.
Nuestro protagonista es Vincent Anton Freeman un no-válido nacido con un 99% de probabilidades de morir por fallo cardíaco y cuya esperanza de vida al nacer es de 30 años. Sus padres al saber esto se arrepienten de haberlo concebido a “la antigua”. Y se ponen manos a la obra para crear un hermano para Vincent, Anton, que sea “válido”.
Vincent es consciente de que no tiene futuro y decide seguir su sueño y labrar una carrera tan buena como la de cualquier válido. Para eso adquiere la identidad de Jerome Eugene Morrow, un ex nadador de élite frustrado, que al intentar suicidarse se quedo parapléjico. Al ocurrir este incidente en el extranjero nadie sabe lo del accidente, pero sin embargo si se descubriese viviría como un paria. Jerome prepara para Vincent muestras de piel, pelo, sangre y orina para que Vincent pueda pasar los exhaustivos y continuos controles genéticos a los que la población está sometida.
Ya como Jerome, Vincent es contratado en gattaca, una empresa aeroespacial donde desarrolla una carrera brillante siendo seleccionado como astronauta en una misión a Titán. La cosa se complica cuando el director de la misión es asesinado y durante la investigación de este asesinato hallan una pestaña de Vincent, lo cual le puede poner al descubierto. El asesino resulto ser el director de gattaca, Vicent consigue su objetivo de ir al espacio. Jerome que no podía mas con su vida decide darle una carta a Vicent, que no lee hasta no estar arriba de la nave por pedido de Jerome, que se asesina tras la partida de Vicent.

martes, 14 de febrero de 2012

El debate esta servido

"El gobierno prepara una ley para regular un fichero genético de violadores y asesino"
Esto favorecería en la busca de los asesinos y violadores, supondría una facilidad para los familiares de las victimas o las victimas de violaciones. Hoy en día cuesta descubrir a estas personas ya que siempre hay pista q a la policía o investigadores se les escapa de las manos. Esto aumentaría la posibilidad de encontrar y encerrar a estas personas.

"Un medico y una secta han mostrado su disposición para comenzar a clonar seres humanos"
Esto traería consecuencias grave ya que a pesar de traer beneficios para la salud de las personas, estarían creando seres humanos encerrado en su propio cuerpo, estarían sometidos a millones de pruebas y estarían vigilado por los médicos y la secta.

"Impedir el nacimiento de mujeres es una practica habitual en algunos países. Las nuevas biotecnología que permiten escoger el sexo de los bebes podrán agravar la situación"
Esto traería problemas para la sociedad, ya que si prohíben el nacimiento de las mujeres habrá un futuro que están no existan, perjudicando así el desarrollo de la sociedad. Unas de las cosas que podría pasar es que se extinguiera la especie o la raza de esos países que permiten esto.

La historia de tres gemelos

Un día como otro, en un hospital de málaga nace tres niños gemelos Pablo, Peter y Nico. estos tres hermanos han nacido sin ningún problema, su madre esta contenta y feliz por el nacimiento de sus bebes.
Los tres niños crecen de la misma manera, van al mismo colegio, se junta con los mismos amigos y se llevan muy bien ; pero un día todo cambia, los tres hermanos han pasado a estar juntos ha hacer su vida por separado, el instituto les ha cambiado la vida. Este cambio les afectara a todo los que les rodea ¿sera para mejor o para peor?
Nico desde que era pequeño le gusto mucho los deportes, estaba todo el día estaba corriendo, salta, etc.
La madre cuando tuvo la oportunidad le apunto al atletismo que era su gran pasión, a partir de los quince años Nico empezó a ganar las competiciones, todo iba bien hasta que un día se lesiono y le prohibieron seguir compitiendo. Un día su entrenador le dio a probar una sustancia para que pudiera seguir con lo que tanto quería, eso era el deporte. Los médicos se extrañaron por el repentino cambio en la salud de Nico, pero no había nada sobrenatural. Nico pudo seguir realizando su trabajo y conseguir todo lo que se proponía con la ayuda de la sustancia que le había dado su entrenador años atrás. Su organismo de tanta sustancia perjudiciales que se tomaba fallo, provocando le un paro cardíaco. Nico murió a los 30 años de sobredosis.
En cambio su hermano Peter desde muy pequeño era muy listo, siempre le gusto estudiar, cuando llego la hora decidió meterse en el mundo de la fisioterapia. Peter era muy bueno en todo lo que se proponía, era el mejor en todo tanto en idiomas como en las asignatura de su carrera. Todos los niños le tenían envidia por su inteligencia por eso siempre se llevaba las burlas de sus compañero. Cuando era mas pequeño fue al psicoloco, pero el con su fuerza de voluntad y su carácter consiguió salir a delante y hacerse un hueco en la vida de sus compañero. Peter consiguió hacer amigos y llevar una vida normal como todos sus compañeros. Cuando alcanzo los 30 años, todos sus objetivos estaban cumplidos era fisioterapeuta tenia una esposa y había conseguido tener lo que tanto deseaba, a sus cuatros hijos.
Por otro lado se encontraba Pablo el niño mas rebelde de la familia Lanzani, desde siempre destaco por su rebeldía y por su chulería. Pablo siempre había conseguido todo lo que quería, para su madre era su ojito derecho, por lo que siempre se llevaba todo lo que pedía. Pablo era un viva la vida, desde que tenia poca edad empezó a salir de fiesta y beber alcohol y fumar. Llevo una vida miserable, su vida era de lunes a miércoles descanso y del jueves al domingo fiesta y borrachera. Pablo nunca sentó la cabeza hasta que conoció a la que seria su novia Rocio, ella fue quien lo hizo cambiar, pero ya era demasiado tarde para lo que le esperaba. A los 45 años le descubrieron un cáncer de pulmón a Pablo, el estuvo haciendo todo lo posible para recuperarse, pero todos los años que había estado desperdiciando su vida y llevando una vida muy mala, hice que Pablo viviera hasta los 60. A pesar de esto Pablo llevo una vida muy feliz junto a su esposa y su hijo.

martes, 7 de febrero de 2012

Productos transgénicos

¿ podrían aparecer nuevas enfermedades usando productos transgénicos?
A la mitad de la secuencia de AND puede ocurrir una insercion de un gen, cambiando las propiedades de las proteinas, debido a esto puede ocurrir que la proteína de síntesis es extraña para el organismo receptor y puede ocasionar reacciones alérgicas; la presencia de esta proteína puede trastornar el funcionamiento de la célula de tal manera que se creen mas sustancias perjudiciales. Si la proteína es una enzima puede ocurrir importantes cambios en el metabolismo de la célula y ello puede formar sustancias toxicas y alergénicas. Los productos transgénicos tambien pueden transportar plásmidos, virus, bacterias, ect; genes resistentes a los antibiotico; alteraciones generales, hormonales e inmunitarias; etc...

¿Por usar productos transgénicos podrían crearse organismos altamente patógenos?
Si, ya que hay un agente patógeno, que afecta a la salud de la plantas, animales y seres humanas.

¿Cuál podría ser el impacto ambiental de los transgénicos en la naturaleza?
  • transferencia génica a otras plantas por hibridación
  • efectos en organismos no-diana beneficiosos
  • interacciones génicas entre diferentes construcciones transgénicas
  • interacciones entre transgenes y genes residentes en distintos ambientes
  • cambios en la virulencia de plagas y patógenos en respuesta al uso de genes de resistencia
  • invasividad de las transgénicas o de su progenie en hábitats silvestres
  • persistencia de las transgénicas o de su progenie en hábitas agrícolas.

domingo, 29 de enero de 2012

Ingeniería genética

La ingeniería genética, también llamada biogenética, es la tecnología del control y transferencia de ADN de un organismo a otro, lo que posibilita la creación de nuevas especies, la corrección de defectos genéticos y la fabricación de numerosos compuestos.

La modificación genética de los vegetales para mejorar sus propiedades es una de las cuestiones científicas más polémicas a día de hoy. Desde que hace más de 8.000 años los agricultores centroamericanos mejorasen las plantas de judías, algodón y calabaza, los rasgos de plantas y animales se han continuado alterando mediante el cruce. No fue hasta que los científicos desvelaron definitivamente la naturaleza de los genes en la década de los 40, cuando quedaría claro que esto cambia de forma aleatoria el ADN de las células.
La ingeniería genética tiene como objetivo modificar el ADN, pero a diferencia del caso del cruce, la ingeniería genética lo hace de forma controlada y orientada a unos objetivos determinados con antelación. Los contrarios a la ingeniería genética afirman categóricamente que la tecnología puede conllevar muchos problemas, como la aparición de superhierbas, o de alergias y resistencia a los antibióticos en los seres humanos.
Por la contra, los científicos a favor de la ingeniería genética afirman que no hay nada nuevo en esta práctica, ya que los agricultores llevan miles de años creando distintas variedades de vegetales. En realidad, la ingeniería genética se puede considerar como un nuevo comienzo cambiando totalmente el concepto con lo que existía anteriormente, ya que se centra solo en unos cuantos genes asociados a rasgos específicos, mientras que el cruce convencional implica a un gran número de genes, con consecuencias desconocidas.
Si bien podemos hablar de cruce para modificar genéticamente seres vivos comenzando en las prácticas de las tribus centroamericanas, el justo comienzo para la ingeniería genética se debe establecer en William James Beal. Éste botánico estadounidense desarrolló cruces de maíz valiéndose de sus conocimientos científicos, consiguiendo al finalizar su experimento en 1879 mejorar la producción de maíz en un 50%.
Siguiendo la práctica de William James Beal muchos otros mejoraron distintas plantas, pero quizá sea recalcable el caso de la patata Lenape. En 1964, sus creadores afirmaron que las patatas fritas hechas con esta variedad de patata eran mucho mejores que con cualquier otra de las existentes. El problema llegó cuando pruebas posteriores demostraron que esta nueva variedad también contenía concentraciones excesivamente altas de solanina, razón por la que se tuvo que abandonar su cultivo.
Estos métodos tradicionales requerían (y requieren aún a día de hoy cuando se utilizan) un gran número de plantas para lograr una elevada probabilidad de transferencia de rasgos. Al final se consigue transmitir el gen deseado, pero el problema es que este método impide seleccionar la totalidad de genes transmitidos, por lo que se transmiten otros muchos genes que definen rasgos totalmente desconocidos, pudiendo enfrentarnos a casos como el de la patata Lenape que se repitió en 1995 en Suecia con otra variedad de patata obtenida por éste método.
En 1944 Oswald Avery al frente de un equipo del Rockefeller Institute de Nueva York aportan las primeras pruebas solidas de que en el ADN están codificados los genes que determinan las cualidades de cada ser vivo. Este descubrimiento planteó una posibilidad nueva de cultivo en la que, en lugar de combinar a ciegas todos los genes de dos plantas hasta encontrar la combinación que buscamos, los científicos pueden identificar los pocos genes implicados en ese rasgo y transferir sólo esos genes a la planta, obteniendo una variedad de la misma mejorada.
Con este avance nacería la ingeniería genética.


miércoles, 18 de enero de 2012

Rosalind Franklin

Biofísica y cristalógrafa inglesa autora de importantes contribuciones a la comprensión de las estructuras del ADN, los virus, el carbón y el grafito. A Franklin se la conoce principalmente por la Fotografía, la imagen del ADN obtenida mediante difracción de rayos X, lo cual sirvió como fundamento para la hipótesis de la estructura doble helicoidal del ADN en su publicación de 1953, y tras su publicación constituyó una prueba crítica para la hipótesis. Más tarde, lideró varios trabajos pioneros relacionados con el virus del mosaico de tabaco y el virus de la polio. Falleció en 1958 acausa de bronconeumonía, carcinomatosis secundaria y cáncer de ovario, minutos antes de que su último informe fuera leído en la Faraday Society. Con toda probabilidad, esta enfermedad fue causada por las repetidas exposiciones a la radiación durante sus investigaciones.Se doctoró en Química física en 1945 por la Universidad de Cambridge. Después de Cambridge, ella pasó tres años productivos (1947-1950) en París en el Laboratoire de Services Chimiques de L’Etat, donde rendió técnicas de la difracción de rayos X.
Franklin demostró su habilidad para obtener las mejores imágenes y para interpretarlas certeramente en la investigación de otros objetos, como la estructura del grafito o la del virus del mosaico del tabaco. Además merece el lugar que ha llegado a ocupar, como icono del avance de las mujeres en la ciencia.
En el verano de 1938 Franklin fue a Newnham College de Cambridge. En 1941 sólo le fue otorgado un grado titular, ya que las mujeres no tenían derecho a grados. En 1945 Rosalind Franklin recibió su doctorado de la Universidad de Cambridge.
Después de la guerra aceptó una oferta de trabajo en París con Jacques Mering. Aprendió la difracción de rayos X durante sus tres años en el Laboratoire des servicios centrales chimiques de l’État. Ella parece haber sido muy feliz allí y ganado una reputación internacional sobre la base de su investigación publicada en la estructura del carbón. En 1950 pidió trabajar en Inglaterra y en junio fue nombrada en el King’s College de Londres.
En 1955 Franklin publicó un documento en la revista Nature, lo que indicaba era que las partículas del virus TMV eran todos de la misma longitud, esto fue en contradicción directa con las ideas de la eminente viróloga Norman Pirie, aunque su observación en última instancia resultó correcto.
Hubo sexismo en el King’s College: ha habido afirmaciones de que Rosalind Franklin fue discriminada debido a su género y que el Rey, como institución, es sexista. Las mujeres fueron excluidas del personal de comedor, y tenían que comer sus comidas en la sala de estudiantes o fuera de la universidad.
Una de las reglas del Premio Nobel era prohibir las candidaturas póstumas y por lo tanto Rosalind Franklin que había fallecido en 1958 no era elegible para candidata del Premio Nobel otorgado posteriormente a Crick, Watson y Wilkins en 1962.

Después de su muerte tuvo reconocimientos:
En 1992, el Patrimonio Inglés colocó una placa azul en la casa donde Rosalind Franklin creció.
En 1995, Newnham College dedicó una residencia en su nombre y puso un busto de ella en su jardín.
En 1997, Birkberck, Universidad de London School of Cristalografía abrió el laboratorio de Rosalind Franklin.
En 1998, la Galería Nacional de Retratos añadió a Rosalind Franklin, junto a las de Francis Crick, James Watson y Maurice Wilkins.
En 2000, el King’s College de Londres abrió el Franklin-Wilkins Building, en honor a la Dr Franklin Wilkins y el profesor de trabajo en la universidad.
En 1994, el King’s Colleges nombró una de las salas en Hampstead Campus residencias en su memoria.
En 2001, en EE.UU, El Instituto Nacional del Cáncer estableció a Rosalind E. Franklin el Premio a la Mujer y la Ciencia.
En 2003, la Royal Society estableció el Premio Rosalind Franklin, por su excelente contribución a cualquier área de las ciencias naturales, ingeniería o tecnología.
En 2004, Finch Universidad de Ciencias de la Salud / La Escuela de Medicina de Chicago, ubicado en el norte de Chicago, cambió su nombre por el de Rosalind Franklin University of Medicine and Science.