martes, 16 de diciembre de 2014

Ciencia

La Mecánica Cuántica


La mecánica cuántica describe, en su visión más ortodoxa, cómo en cualquier sistema físico –y por tanto, en todo el universo– existe una diversa multiplicidad de estados, los cuales habiendo sido descritos mediante ecuaciones matemáticas por los físicos, son denominados estados cuánticos. De esta forma la mecánica cuántica puede explicar la existencia del átomo y revelar los misterios de la estructura atómica, tal como hoy son entendidos; fenómenos que no puede explicar debidamente la física clásica o más propiamente la mecánica clásica.
La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para esclarecerlos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos.
Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después era medido.

Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.


El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.


Fuentes bibliográficas: http://es.wikipedia.org/wiki/Mec%C3%A1nica_cu%C3%A1ntica

miércoles, 10 de diciembre de 2014

Aprendizaje

e-learning: Aulas Virtuales




Se denomina aprendizaje electrónico (conocido también como e-learning) a la educación a distancia virtualizada a través de canales electrónicos (las nuevas redes de comunicación, en especial Internet), utilizando para ello herramientas o aplicaciones de hipertexto (correo electrónico, páginas web, foros de discusión, mensajería instantánea, plataformas de formación, entre otras) como soporte de los procesos de enseñanza-aprendizaje.
Procesos de enseñanza-aprendizaje que se llevan a cabo a través de Internet, caracterizados por una separación física entre profesorado y estudiantes, pero con el predominio de una comunicación tanto síncrona como asíncrona, a través de la cual se lleva a cabo una interacción didáctica continuada. Además, el alumno pasa a ser el centro de la formación, al tener que auto gestionar su aprendizaje, con ayuda de tutores y compañeros.
Características
-Esta modalidad formativa a distancia a través de Internet o semipresencial (una parte de los procesos formativos se realizan de manera presencial), ha contribuido a que la formación llegue a un mayor número de personas. Entre las características más destacadas del e-Learning están:
-Desaparecen las barreras espacio-temporales. Los estudiantes pueden realizar un curso en su casa o lugar de trabajo, estando accesibles los contenidos cualquier día a cualquier hora.
-Pudiendo de esta forma optimizar al máximo el tiempo dedicado a la formación. Formación flexible. La diversidad de métodos y recursos empleados, facilita el que nos podamos adaptar a las características y necesidades de los estudiantes.
-El alumno es el centro de los procesos de enseñanza-aprendizaje y participa de manera activa en la construcción de sus conocimientos, teniendo capacidad para decidir el itinerario formativo más acorde con sus intereses.
-El profesor, pasa de ser un mero transmisor de contenidos a un tutor que orienta, guía, ayuda y facilita los procesos formativos.
-Contenidos actualizados. Las novedades y recursos relacionados con el tema de estudio se pueden introducir de manera rápida en los contenidos, de forma que las enseñanzas estén totalmente actualizadas.
-Comunicación constante entre los participantes, gracias a las herramientas que incorporan las plataformas e-Learning (foros, chat, correo-e, etc.).

Lo más importante en el caso de los estudiantes es la flexibilidad en cuanto al manejo de sus propios tiempos, la ausencia del requisito de asistencia periódica a clase, la posibilidad de seguir los estudios desde cualquier parte a donde el alumno se vea obligado a trasladarse por distintas razones laborales o personales, en definitiva el alto grado de autonomía de la que goza en el sistema, constituye a la educación a distancia en una opción apropiada para los tiempos que corren, ya que permite compatibilizar las exigencias de capacitación con las limitaciones espacio-temporales que impone la vida diaria.


A este porcentaje de población estudiantil que recurre a la educación a distancia le es de gran ayuda el lograr una carrera y formar parte de la sociedad de profesionistas sin tener que descuidar sus puestos laborales y a su familia, puesto que en su mayoría pasan de los 23 años y cuentan con por lo menos una de estas dos. Es un método de aprendizaje que solo se puede realizar con dedicación, decisión y esfuerzo. Ya que depende el 90% del alumno que tanto se entrega y compromete con el estudio.



martes, 9 de diciembre de 2014

Tecnología

Gafas inteligentes


Cada año nuevos inventos tecnológicos sorprenden a mas de uno así, aparecen cada vez nuevos objetos mas útiles e interesantes, tal es el caso de las gafas inteligentes, una nueva manera practica de incluir la Internet en nuestras actividades diarias.
En la actualidad la empresa que ha promocionado mas este gadget es la empresa Google con sus "google glass".
Las google glass son un dispositivo de visualización tipo gafas de realidad aumentada. Durante le conferencia Google I/O 2014, uno de los ausentes fue Glass, sin embargo días después se dio a conocer que el dispositivo habría recibido una mejora en cuanto a su hardware, cambiando de 1GB de memoria RAM a 2GB, además de la incorporación de nuevas aplicaciones. Actualmente las gafas vendidas ya incluyen los 2GB de memoria RAM, sin embargo los poseedores anteriores a esta actualización no podrán realizar un “upgrade”.
El propósito de Google Glass sería mostrar información disponible para los usuarios de teléfonos inteligentes sin utilizar las manos, permitiendo también el acceso a Internet mediante órdenes de voz, de manera comparable a lo que Google Now ofrece en dispositivos Android. El sistema operativo será Android. Project Glass es parte del Google X Lab de la compañía, que ha trabajado en otras tecnologías futuristas, como un vehículo autónomo. El proyecto fue anunciado en Google+ por Babak Parviz, un ingeniero eléctrico que trabajó poniendo las pantallas en las lentes; Steve Lee, mánager del proyecto y "especialista en geolocalización"; y Sebastian Thrun, quien desarrolló la universidad online Udacity y trabajó en el proyecto de piloto automático para coches Google Car.

Estas son las gafas inteligentes mas conocidas pero ya se estan incluyendo varias mas por parte de otras grandes empresas como Sony con sus SmartEyeglass.


Fuentes bibliográficas:  http://es.wikipedia.org/wiki/Google_Glass

martes, 2 de diciembre de 2014

Tecnología

El NEE-02 KRYSAOR


El NEE-02 KRYSAOR es un satélite clase PEGASO, esto significa que es es un satélite gemelo al NEE-01, fue construido después de PEGASO y su función principal es la de servir como respaldo en caso de una eventualidad hasta antes del lanzamiento del NEE-01.
El NEE-02 será lanzado en una órbita helio sincrónica elíptica a 98.7 grados de inclinación, con un perigeo de 720 km y un apogeo de 890 km el 21 de Noviembre de 2013.

La misión del NEE-02 es la misma que la PEGASO sirviendo a la educación media y superior y cumpliendo funciones de centinela orbital para vigilar posibles amenazas de cuerpos cercanos a la tierra en su fase final de aproximación y control de basura orbital. Además lleva nuevos avances en despliegue activo de sus paneles solares, transmisión digital de alta velocidad y una cámara de resolución superior a la PEGASO.
El nanosatélite fue lanzado con éxito desde la base rusa de Yasni, el aparato entró en órbita 15 minutos después de su lanzamiento.
El despegue del cohete portador Dnepr RS-20 tuvo lugar a las 07.10 GMT desde el área de misiles Dombvarovski de la base de Yasni.
Krysaor (NEE-02) fue construido completamente en Ecuador y es gemelo de Pegaso, el primer nanosatélite de la Agencia Civil Espacial Ecuatoriana (EXA), un cubo de 1,2 kilogramos de peso que fue lanzado en abril de este año desde China, pero que un mes después de su entrada en órbita colisionó con la chatarra espacial de un cohete ruso y fue dado por perdido.

Fuentes bibliográficas:  http://www.teleamazonas.com/index.php/noticias/nacionales/34666-krysaor-el-segundo-satelite-ecuatoriano-esta-en-orbita

http://exa.ec/nee-02.htm

viernes, 28 de noviembre de 2014

Ciencia

La materia oscura

Ciencia



La materia oscura


En astrofísica y cosmología física se denomina materia oscura a la hipotética materia que no emite suficiente radiación electromagnética para ser detectada con los medios técnicos actuales, pero cuya existencia se puede deducir a partir de los efectos gravitacionales que causa en la materia visible, tales como las estrellas o las galaxias, así como en las anisotropías del fondo cósmico de microondas presente en el universo.
No se debe confundir la materia oscura con la energía oscura. De acuerdo con las observaciones actuales (2010) de estructuras mayores que una galaxia, así como la cosmología del Big Bang, la materia oscura constituye del orden del 21% de la masa del Universo observable y la energía oscura el 70%.
La materia oscura fue propuesta por Fritz Zwicky en 1933 ante la evidencia de una "masa no visible" que influía en las velocidades orbitales de las galaxias en los cúmulos. Posteriormente, otras observaciones han indicado la presencia de materia oscura en el universo: estas observaciones incluyen la citada velocidad de rotación de las galaxias, las lentes gravitacionales de los objetos de fondo por los cúmulos de galaxias, tales como el Cúmulo Bala (1E 0657-56) y la distribución de la temperatura del gas caliente en galaxias y cúmulos de galaxias.
¿Cómo sabemos que en el universo debe existir materia oscura?
 Las estrellas en algunas galaxias espirales giran muy rápidamente. Según las leyes de la mecánica de Newton, la velocidad de una estrella a lo largo de su órbita depende de la masa de la galaxia contenida dentro de la órbita de la estrella. Sin embargo la masa visible es mucho menor que lo esperado. ¿Dónde está la masa que falta? 
 Las galaxias en el universo normalmente se agrupan en cúmulos que para mantenerse unidos necesitan de la fuerza de atracción gravitacional producida por una gran cantidad de masa. La masa requerida no se observa. ¿Dónde está? 
Las grandes estructuras que vemos en el universo se formaron a partir de pequeñas irregularidades en la distribución de la materia al momento del big-bang. Más adelante, con la ayuda de la gravedad, estas fluctuaciones se hacen cada vez más fuertes y al final resultan galaxias, cúmulos, etc. Por otro lado, la radiación existente en el universo interactúa con la materia y por lo tanto se ve afectada por estas fluctuaciones. La señal que queda en la radiación de fondo es como una fotografía del universo joven y fue tomada por primera vez por el satélite COBE. El análisis de las fluctuaciones en la radiación de fondo indica que debe existir más materia en el universo de lo que observamos a simple vista. ¿Dónde está la materia que no observamos? 
En un sistema binario formado por una estrella y un agujero negro, los dos cuerpos se mueven en una órbita en torno a un centro común. El agujero negro no se ve, pero la estrella si se puede ver. Debido al movimiento de la estrella en torno al centro del sistema binario, desde la Tierra se ve como si ésta se alejara y acercara cíclicamente. Este fenómeno se ha confirmado observando el efecto Doppler de la luz emitida por la estrella. 
Existen fuertes argumentos teóricos a favor de un universo dominado por materia oscura. Estos argumentos se basan en el llamado modelo inflacionario según el cual el universo sufrió un período de crecimiento acelerado a los pocos instantes después del Big Bang. Esta teoría predice que el universo estaría dominado por materia oscura: 99% de la materia que forma el universo no es visible. La cantidad total de masa predicha por este modelo es un parámetro que los astrofísicos llaman la masa crítica del universo.  
 Fuentes bibliográficas: http://es.wikipedia.org/wiki/Materia_oscura
http://astroverada.com/_/Main/T_darkmatter.html

martes, 25 de noviembre de 2014

Ciencia

Estado Plasmático


El estado plasmático es un estado de alto contenido energético, a temperaturas elevadas las moléculas gaseosas se ionizan a expensas de los choques de los átomos o moléculas que se mueven rápidamente.
El estado plasmático se produce cuando la materia está sometida a temperaturas mayores a 10000°C, como la que se alcanza en el sol y en todas las estrellas.
En esas condiciones, los átomos pierden algunos de sus electrones, convirtiéndose en iones. Así, la materia se convierte en un conjunto de iones positivos y de electrones cargados negativamente, que se mueven entre los iones sin estar ligados a ninguno de ellos.
El plasma presenta características propias que no se dan en los sólidos, líquidos o gases, por lo que es considerado otro estado de agregación de la materia. Como el gas, el plasma no tiene una forma definida o un volumen definido, a no ser que esté encerrado en un contenedor; pero a diferencia del gas en el que no existen efectos colectivos importantes, el plasma bajo la influencia de un campo magnético puede formar estructuras como filamentos, rayos y capas dobles. Los átomos de este estado se mueven libremente; cuanto más alta es la temperatura más rápido se mueven los átomos en el gas, y en el momento de colisionar la velocidad es tan alta que se produce un desprendimiento de electrones.
Calentar un gas puede ionizar sus moléculas o átomos (reduciendo o incrementado su número de electrones para formar iones), convirtiéndolo en un plasma. La ionización también puede ser inducida por otros medios, como la aplicación de un fuerte campo electromagnético mediante un láser o un generador de microondas, y es acompañado por la disociación de los enlaces covalentes, si están presentes.


Aplicaciones
Las LCF son ejemplo de aplicación del plasma.
La física de plasmas puede encontrar aplicación en diversas áreas:
Descargas de gas (electrónica gaseosa).
Fusión termonuclear controlada.
Física del espacio.
Astrofísica moderna.
Conversión de energía de MHD (magnetohidrodinámica) y propulsión iónica.
Plasmas de estado sólido.
Láseres de gas.


Fuentes bibliográficas: http://www.fullquimica.com/2012/08/el-estado-plasmatico.html
http://es.wikipedia.org/wiki/Plasma_%28estado_de_la_materia%29

martes, 18 de noviembre de 2014

Ciencia

La nanotecnología

Nanotecnología, es el estudio y desarrollo de sistemas en escala nanométrica, “nano” es un prefijo del Sistema Internacional de Unidades   que viene del griego νάνος que significa enano, y corresponde a un factor 10^-9,  que aplicado a las unidades de longitud, corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1 Nanómetro, la nanotecnología estudia la materia desde un nivel de resolución nanométrico, entre 1 y 100 Nanómetros aprox.  hay que saber que un átomo mide menos de 1 nanómetro pero una molécula puede ser mayor, en esta escala se observan propiedades y fenómenos totalmente nuevos,  que se rigen bajo las leyes de la Mecánica Cuántica , estas nuevas propiedades son las que los científicos aprovechan para crear nuevos materiales (nano materiales) o  dispositivos nanotecnológicos, de esta forma la Nanotecnología promete soluciones a múltiples problemas que enfrenta actualmente la humanidad, como los ambientales, energéticos, de salud (nano medicina), y muchos otros, sin embargo estas nuevas tecnologías pueden conllevar a riesgos y peligros si son mal utilizadas.
Historia

El ganador del premio Nobel de Física de 1965, Richard Feynman, fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en un discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959, titulado En el fondo hay espacio de sobra (There's Plenty of Room at the Bottom), en el que describe la posibilidad de la síntesis vía la manipulación directa de los átomos. El término "nanotecnología" fue usado por primera vez por Norio Taniguchi en el año 1974, aunque esto no es ampliamente conocido.
Inspirado en los conceptos de Feynman, en forma independiente K. Eric Drexler usó el término "nanotecnología" en su libro del año 1986 Motores de la Creación: La Llegada de la Era de la Nanotecnología (en inglés: Engines of Creation: The Coming Era of Nanotechnology), en el que propuso la idea de un "ensamblador" a nanoescala que sería capaz de construir una copia de sí mismo y de otros elementos de complejidad arbitraria con un nivel de control atómico. También en el año 1986, Drexler co-fundó The Foresight Institute (en castellano: El Instituto de Estudios Prospectivos), con el cual ya no tiene relación, para ayudar a aumentar la conciencia y comprensión pública de los conceptos de la nanotecnología y sus implicaciones.

Así, el surgimiento de la nanotecnología como un campo en la década de 1980 ocurrió por la convergencia del trabajo teórico y público de Drexler, quien desarrolló y popularizó un marco conceptual para la nanotecnología, y los avances experimentales de alta visibilidad que atrajeron atención adicional a amplia escala a los prospectos del control atómico de la materia.

Citas Bibliográficas: http://es.wikipedia.org/wiki/Nanotecnolog%C3%ADa
http://www.nanotecnologia.cl/que-es-nanotecnologia/

miércoles, 12 de noviembre de 2014

Ciencia

EL ADN

Ciencia

El ADN


ADN significa ácido desoxirribonucleico. El ADN es la molécula que lleva la información genética utilizada por una célula para la creación de proteínas. El ADN contiene las instrucciones genéticas usadas en el desarrollo y funcionamiento de todos los organismos vivos conocidos. La función principal de las moléculas de ADN es el almacenamiento a largo plazo de la información genética.
Es un ácido nucleico que contiene instrucciones genéticas usadas en el desarrollo y funcionamiento de todos los organismos vivos conocidos y algunos virus, y es responsable de su transmisión hereditaria. La función principal de la molécula de ADN es el almacenamiento a largo plazo de información. Muchas veces, el ADN es comparado con un plano o una receta, o un código, ya que contiene las instrucciones necesarias para construir otros componentes de las células, como las proteínas y las moléculas de ARN. Los segmentos de ADN que llevan esta información genética son llamados genes, pero las otras secuencias de ADN tienen propósitos estructurales o toman parte en la regulación del uso de esta información genética.
El ADN lo aisló por primera vez, durante el invierno de 1869, el médico suizo Friedrich Miescher mientras trabajaba en la Universidad de Tubinga. Miescher realizaba experimentos acerca de la composición química del pus de vendas quirúrgicas desechadas cuando notó un precipitado de una sustancia desconocida que caracterizó químicamente más tarde.2 3 Lo llamó nucleína, debido a que lo había extraído a partir de núcleos celulares.4 Se necesitaron casi 70 años de investigación para poder identificar los componentes y la estructura de los ácidos nucleicos.
Historia

En 1919 Phoebus Levene identificó que un nucleótido está formado por una base nitrogenada, un azúcar y un fosfato. Levene sugirió que el ADN generaba una estructura con forma de solenoide (muelle) con unidades de nucleótidos unidos a través de los grupos fosfato. En 1930 Levene y su maestro Albrecht Kossel probaron que la nucleína de Miescher es un ácido desoxirribonucleico (ADN) formado por cuatro bases nitrogenadas (citosina (C), timina (T), adenina (A) y guanina (G)), el azúcar desoxirribosa y un grupo fosfato, y que, en su estructura básica, el nucleótido está compuesto por un azúcar unido a la base y al fosfato. Sin embargo, Levene pensaba que la cadena era corta y que las bases se repetían en un orden fijo. En 1937 William Astbury produjo el primer patrón de difracción de rayos X que mostraba que el ADN tenía una estructura regular.
La función biológica del ADN comenzó a dilucidarse en 1928, con una serie básica de experimentos de la genética moderna realizados por Frederick Griffith, quien estaba trabajando con cepas "lisas" (S) o "rugosas" (R) de la bacteria Pneumococcus (causante de la neumonía).
Propiedades
El ADN es un largo polímero formado por unidades repetitivas, los nucleótidos. Una doble cadena de ADN mide de 22 a 26 angstroms (2,2 a 2,6 nanómetros) de ancho, y una unidad (un nucleótido) mide 3,3 Å (0,33 nm) de largo. Aunque cada unidad individual que se repite es muy pequeña, los polímeros de ADN pueden ser moléculas enormes que contienen millones de nucleótidos. Por ejemplo, el cromosoma humano más largo, el cromosoma número 1, tiene aproximadamente 220 millones de pares de bases.

En los organismos vivos, el ADN no suele existir como una molécula individual, sino como una pareja de moléculas estrechamente asociadas. Las dos cadenas de ADN se enroscan sobre sí mismas formando una especie de escalera de caracol, denominada doble hélice. El modelo de estructura en doble hélice fue propuesto en 1953 por James Watson y Francis Crick (el artículo Molecular Structure of Nucleic Acids: A Structure for Deoxyribose Nucleic Acid fue publicado el 25 de abril de 1953 en Nature), después de obtener una imagen de la estructura de doble hélice gracias a la refracción por rayos X hecha por Rosalind Franklin.
Estructura de soporte: La estructura de soporte de una hebra de ADN está formada por unidades alternas de grupos fosfato y azúcar (desoxirribosa).27 El azúcar en el ADN es una pentosa, concretamente, la desoxirribosa.
Ácido fosfórico: Enlace fosfodiéster. El grupo fosfato (PO43-) une el carbono 5' del azúcar de un nucleósido con el carbono 3' del siguiente.
Su fórmula química es H3PO4. Cada nucleótido puede contener uno (monofosfato: AMP), dos (difosfato: ADP) o tres (trifosfato: ATP) grupos de ácido fosfórico, aunque como monómeros constituyentes de los ácidos nucleicos sólo aparecen en forma de nucleósidos monofosfato.
Desoxirribosa: Es un monosacárido de 5 átomos de carbono (una pentosa) derivado de la ribosa, que forma parte de la estructura de nucleótidos del ADN. Su fórmula es C5H10O4. Una de las principales diferencias entre el ADN y el ARN es el azúcar, pues en el ARN la 2-desoxirribosa del ADN es reemplazada por una pentosa alternativa, la ribosa.25
Las moléculas de azúcar se unen entre sí a través de grupos fosfato, que forman enlaces fosfodiéster entre los átomos de carbono tercero (3′, «tres prima») y quinto (5′, «cinco prima») de dos anillos adyacentes de azúcar. La formación de enlaces asimétricos implica que cada hebra de ADN tiene una dirección. En una doble hélice, la dirección de los nucleótidos en una hebra (3′ → 5′) es opuesta a la dirección en la otra hebra (5′ → 3′). Esta organización de las hebras de ADN se denomina antiparalela; son cadenas paralelas, pero con direcciones opuestas. De la misma manera, los extremos asimétricos de las hebras de ADN se denominan extremo 5′ («cinco prima») y extremo 3′ («tres prima»), respectivamente.
Bases nitrogenadas: Las cuatro bases nitrogenadas mayoritarias que se encuentran en el ADN son la adenina (A), la citosina (C), la guanina (G) y la timina (T). Cada una de estas cuatro bases está unida al armazón de azúcar-fosfato a través del azúcar para formar el nucleótido completo (base-azúcar-fosfato). Las bases son compuestos heterocíclicos y aromáticos con dos o más átomos de nitrógeno, y, dentro de las bases mayoritarias, se clasifican en dos grupos: las bases púricas o purinas (adenina y guanina), derivadas de la purina y formadas por dos anillos unidos entre sí, y las bases pirimidínicas o bases pirimídicas o pirimidinas (citosina y timina), derivadas de la pirimidina y con un solo anillo.25 En los ácidos nucleicos existe una quinta base pirimidínica, denominada uracilo (U), que normalmente ocupa el lugar de la timina en el ARN y difiere de ésta en que carece de un grupo metilo en su anillo. El uracilo no se encuentra habitualmente en el ADN, sólo aparece raramente como un producto residual de la degradación de la citosina por procesos de desaminación oxidativa.
Timina: En el código genético se representa con la letra T. Es un derivado pirimidínico con un grupo oxo en las posiciones 2 y 4, y un grupo metil en la posición 5. Forma el nucleósido timidina (siempre desoxitimidina, ya que sólo aparece en el ADN) y el nucleótido timidilato o timidina monofosfato (dTMP). En el ADN, la timina siempre se empareja con la adenina de la cadena complementaria mediante 2 puentes de hidrógeno, T=A. Su fórmula química es C5H6N2O2 y su nomenclatura 2, 4-dioxo, 5-metilpirimidina.
Citosina: En el código genético se representa con la letra C. Es un derivado pirimidínico, con un grupo amino en posición 4 y un grupo oxo en posición 2. Forma el nucleósido citidina (desoxicitidina en el ADN) y el nucleótido citidilato o (desoxi) citidina monofosfato (dCMP en el ADN, CMP en el ARN). La citosina siempre se empareja en el ADN con la guanina de la cadena complementaria mediante un triple enlace, C≡G. Su fórmula química es C4H5N3O y su nomenclatura 2-oxo, 4 aminopirimidina. Su masa molecular es de 111,10 unidades de masa atómica. La citosina se descubrió en 1894, al aislarla del tejido del timo de carnero.
Adenina: En el código genético se representa con la letra A. Es un derivado de la purina con un grupo amino en la posición 6. Forma el nucleósido adenosina (desoxiadenosina en el ADN) y el nucleótido adenilato o (desoxi) adenosina monofosfato (dAMP, AMP). En el ADN siempre se empareja con la timina de la cadena complementaria mediante 2 puentes de hidrógeno, A=T. Su fórmula química es C5H5N5 y su nomenclatura 6-aminopurina. La adenina, junto con la timina, fue descubierta en 1885 por el médico alemán Albrecht Kossel.

Guanina: En el código genético se representa con la letra G. Es un derivado púrico con un grupo oxo en la posición 6 y un grupo amino en la posición 2. Forma el nucleósido (desoxi) guanosina y el nucleótido guanilato o (desoxi) guanosina monofosfato (dGMP, GMP). La guanina siempre se empareja en el ADN con la citosina de la cadena complementaria mediante tres enlaces de hidrógeno, G≡C. Su fórmula química es C5H5N5O y su nomenclatura 6-oxo, 2-aminopurina.



Fuentes : http://easylearngenetics.net/what-is-genetics/what-is-dna/que-es-el-adn/
http://es.wikipedia.org/wiki/%C3%81cido_desoxirribonucleico


domingo, 9 de noviembre de 2014

El tiburón martillo



El Tiburón Martillo se extingue



Tres de las especies de tiburones del mundo se encuentran en peligro de desaparecer. El tiburón martillo, el sedoso y el zorro están incluidos en las listas de riesgo de la Unión Internacional para la Conservación de la Naturaleza (UICN), principalmente por la pesca.
Según datos de la Organización No Gubernamental Pew Charitable Trusts (PEW), los martillo son la población de los tiburones que más ha sufrido de la depredación del ser humano. En 15 años se perdió el 90% de los animales de las dos especies de martillo, gigante y común. Por ello, se han iniciado planes de acción para la protección de estas especies, íconos de las islas Galápagos.
Estas especies ya se encuentran en el Apéndice II de Protección de la Convención sobre el Comercio Internacional de Especies Amenazadas de Fauna y Flora Silvestres (Cites). Esto garantiza que los gobiernos que forman parte de este instrumento internacional establezcan políticas públicas para su conservación y planes para su manejo sustentable para el futuro. Ahora, el objetivo es incluirlas también en la lista de la Convención para la Conservación de las Especies Migratorias (CMS), que la integran 120 países del mundo.
Esta es la propuesta que Ecuador y Costa Rica llevaron a la XI Conferencia de los partes de la CMS, que concluye hoy en Quito, y en la cual se votará para determinar su inclusión o no en el Apéndice II.
Sin embargo, hay voces que cuestionan que no se haya propuesto la clasificación de los tiburones martillo en la lista I, que determina la prohibición completa de pesca y captura de ejemplares. La respuesta de las autoridades de los dos países fue que este es un nivel que debe cumplirse antes de pasar a una medida más radical, que podría ser bloqueada.
Las cifras de captura de tiburones son alarmantes. Algunos son atrapados porque países como China son consumidores de aleta de tiburón, y otros  caen en redes como  pesca incidental.
Según Luke Warwick, de PEW, alrededor de 100 millones de tiburones por año han sido capturados en la última década, principalmente en Indonesia, España, Japón,  México, Argentina y Brasil.
El problema de la reducción de estas especies es que el ciclo de vida de los tiburones es mucho más lento que el de otros peces, lo que los vuelve más vulnerables y afecta al balance de este animal. Según Maximiliano Bello, de PEW, el tiburón martillo demora más de 10 años en alcanzar la madurez reproductiva y tienen entre  10-15 crías, lo que origina que la especie no se regenere tan rápido como otras. “El problema de la llamada pesca incidental es que mucha de ella se retiene, por lo que se convierte en pesca objetivo”, explicó Bello. Por ello, instó a que se tomen medidas mucho más duras para evitar este mal a escala mundial.
Los tiburones son unas de las especies más migratorias del mundo. Algunas de las especies recorren todos los continentes y otras solo unos cuantos países. Por ello, se requieren  acciones y normativas transfronterizas para protegerlas. “Normalmente escuchamos que el tiburón es el depredador pero en realidad nosotros somos los depredadores de los tiburones”, dijo Bello.
Su idea fue complementada por Philippe Cousteau, nieto del investigador francés Jacques Cousteau, quien señaló que más personas mueren al año por la caída de cocos en sus cabezas que por mordidas de tiburones.



Bibliografía:  http://especiales.elcomercio.com/planeta-ideas/planeta/planeta-9-de-noviembre-de-2014/tiburon-martillo-extingue-estudios