martes, 31 de mayo de 2011

PROCESOS TERMODINAMICOS

En física, se denomina proceso termodinámico a la evolución de determinadas magnitudes (o propiedades) propiamente termodinámicas relativas a un determinado sistema físico. Desde el punto de vista de la termodinámica, estas transformaciones deben transcurrir desde un estado de equilibrio inicial a otro final; es decir, que las magnitudes que sufren una variación al pasar de un estado a otro deben estar perfectamente definidas en dichos estados inicial y final. De esta forma los procesos termodinámicos pueden ser interpretados como el resultado de la interacción de un sistema con otro tras ser eliminada alguna ligadura entre ellos, de forma que finalmente los sistemas se encuentren en equilibrio (mecánico, térmico y/o material) entre sí.
De una manera menos abstracta, un proceso termodinámico puede ser visto como los cambios de un sistema, desde unas condiciones iniciales hasta otras condiciones finales, debidos a la desestabilización del sistema.


http://es.wikipedia.org/wiki/Proceso_termodin%C3%A1mico

Proceso Adiabatico
Proceso Isotermico
Proceso Isobarico
Proceso Isocorico

Proceso adiabático.
Se designa como proceso adiabático a aquel en el cual el sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con su entorno. Un proceso adiabático que es además reversible se conoce como proceso isentrópico.
El término adiabático hace referencia a elementos que impiden la transferencia de calor con el entorno. Una pared aislada se aproxima bastante a un límite adiabático. Otro ejemplo es la temperatura adiabática de una llama, que es la temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el entorno. En climatización los procesos de humectación (aporte de vapor de agua) son adiabáticos, puesto que no hay transferencia de calor, a pesar de que se consiga variar la temperatura del aire y su humedad relativa.
Durante un proceso adiabático, la energía interna del fluido que realiza el trabajo debe necesariamente decrecer.
Es decir, que en este tipo de procesos se tiene que Q = 0. Que de acuerdo con la primera ley de la termodinámica, tenemos que:
Q= ∆U +W
Como Q =0, entonces, ∆U = -W.
Esto quiere decir, que para un gas contenido en un cilindro provisto de un pistón, cuyas paredes no permiten la transferencia de calor al exterior, la variación de energía interna es igual al trabajo, ya sea realizado por el sistema o sobre el sistema.


Proceso a temperatura constante. Se denomina proceso isotérmico al cambio de temperatura reversible en un sistema termodinámico, siendo dicho cambio de temperatura constante en todo el sistema.


Proceso isobárico.
Es un proceso termodinámico en el cual la presión permanece constante, en este proceso, como la presión se mantiene constante, se produce una variación en el volumen y por tanto el sistema realiza trabajo o se puede realizar trabajo sobre el sistema.
De acuerdo con la primera ley de la termodinámica, tenemos:
Q = ∆U +W
Lo que quiere decir que en un proceso de tipo isobárico tanto el calor transferido como el trabajo realizado ocasionan una variación de la energía interna.
El trabajo realizado por un gas al expandirse a presión constante es igual al producto de la presión por la variación del volumen del gas.
Gráficamente:
Como P es constante, la gráfica es una recta. El área bajo la curva es igual al trabajo. Este proceso se denomina Proceso Isobárico (a presión constante.)
ΔQ = P (V f - V i ) + ΔU

TEORIA DE LA RELATIVIDAD

La teoría de la relatividad, desarrollada fundamentalmente por Albert Einstein, pretendía originalmente explicar ciertas anomalías en el concepto de movimiento relativo, pero en su evolución se ha convertido en una de las teorías más importantes en las ciencias físicas y ha sido la base para que los físicos demostraran la unidad esencial de la materia y la energía, el espacio y el tiempo, y la equivalencia entre las fuerzas de la gravitación y los efectos de la aceleración de un sistema.
La teoría de la relatividad, tal como la desarrolló Einstein, tuvo dos formulaciones diferentes. La primera es la que corresponde a dos trabajos publicados en 1906 en los Annalen der Physik. Es conocida como la Teoría de la relatividad especial y se ocupa de sistemas que se mueven uno respecto del otro con velocidad constante (pudiendo ser igual incluso a cero). La segunda, llamada Teoría de la relatividad general (así se titula la obra de 1916 en que la formuló), se ocupa de sistemas que se mueven a velocidad variable.

Teoría de la relatividad especial
Los postulados de la relatividad especial son dos. El primero afirma que todo movimiento es relativo a cualquier otra cosa, y por lo tanto el éter, que se había considerado durante todo el siglo XIX como medio propagador de la luz y como la única cosa absolutamente firme del Universo, con movimiento absoluto y no determinable, quedaba fuera de lugar en la física, que no necesitaba de un concepto semejante (el cual, además, no podía determinarse por ningún experimento).

Einstein
El segundo postulado afirma que la velocidad de la luz es siempre constante con respecto a cualquier observador. De sus premisas teóricas obtuvo una serie de ecuaciones que tuvieron consecuencias importantes e incluso algunas desconcertantes, como el aumento de la masa con la velocidad. Uno de sus resultados más importantes fue la equivalencia entre masa y energía, según la conocida fórmula E=mc², en la que c es la velocidad de la luz y E representa la energía obtenible por un cuerpo de masa m cuando toda su masa sea convertida en energía.
Dicha equivalencia entre masa y energía fue demostrada en el laboratorio en el año 1932, y dio lugar a impresionantes aplicaciones concretas en el campo de la física (tanto la fisión nuclear como la fusión termonuclear son procesos en los que una parte de la masa de los átomos se transforma en energía). Los aceleradores de partículas donde se obtiene un incremento de masa son un ejemplo experimental clarísimo de la teoría de la relatividad especial.
La teoría también establece que en un sistema en movimiento con respecto a un observador se verifica una dilatación del tiempo; esto se ilustra claramente con la famosa paradoja de los gemelos: "imaginemos a dos gemelos de veinte años, y que uno permaneciera en la Tierra y el otro partiera en una astronave, tan veloz como la luz, hacia una meta distante treinta años luz de la Tierra; al volver la astronave, para el gemelo que se quedó en la Tierra habrían pasado sesenta años; en cambio, para el otro sólo unos pocos días".



Teoría de la relatividad general
La teoría de la relatividad general se refiere al caso de movimientos que se producen con velocidad variable y tiene como postulado fundamental el principio de equivalencia, según el cual los efectos producidos por un campo gravitacional equivalen a los producidos por el movimiento acelerado.
La revolucionaria hipótesis tomada por Einstein fue provocada por el hecho de que la teoría de la relatividad especial, basada en el principio de la constancia de la velocidad de la luz sea cual sea el movimiento del sistema de referencia en el que se mide (tal y como se demostró en el experimento de Michelson y Morley), no concuerda con la teoría de la gravitación newtoniana: si la fuerza con que dos cuerpos se atraen depende de la distancia entre ellos, al moverse uno tendría que cambiar al instante la fuerza sentida por el otro, es decir, la interacción tendría una velocidad de propagación infinita, violando la teoría especial de la relatividad que señala que nada puede superar la velocidad de la luz.
Tras varios intentos fallidos de acomodar la interacción gravitatoria con la relatividad, Einstein sugirió de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo se encuentra deformado por la presencia de masa (o energía, que es lo mismo). Entonces, cuerpos como la tierra no se mueven en órbitas cerradas porque haya una fuerza llamada gravedad, sino que se mueven en lo más parecido a una línea recta, pero en un espacio-tiempo que se encuentra deformado por la presencia del sol.

Einstein en su estudio
Los cálculos de la relatividad general se realizan en un espacio-tiempo de cuatro dimensiones, tres espaciales y una temporal, adoptado ya en la teoría de la relatividad restringida al tener que abandonar el concepto de simultaneidad. Sin embargo, a diferencia del espacio tiempo de Minkowski y debido al campo gravitatorio, este universo no es euclidiano. Así, la distancia que separa dos puntos contiguos del espacio-tiempo en este universo es más complejo que en el espacio de Minkowsky.
Con esta teoría se obtienen órbitas planetarias muy similares a las que se obtienen con la mecánica de Newton. Uno de los puntos de discrepancia entre ambas, la anormalmente alargada órbita del planeta Mercurio, que presenta un efecto de rotación del eje mayor de la elipse (aproximadamente un grado cada diez mil años) observado experimentalmente algunos años antes de enunciarse la teoría de la relatividad, y no explicado con las leyes de Newton, sirvió de confirmación experimental de la teoría de Einstein.
Un efecto que corroboró tempranamente la teoría de la relatividad general es la deflexión que sufren los rayos de luz en presencia de campos gravitatorios. Los rayos luminosos, al pasar de una región de un campo gravitatorio a otra, deberían sufrir un desplazamiento en su longitud de onda (el Desplazamiento al rojo de Einstein), lo que fue comprobado midiendo el desplazamiento aparente de una estrella, con respecto a un grupo de estrellas tomadas como referencia, cuando los rayos luminosos provenientes de ella rozaban el Sol.
La verificación se llevó a cabo aprovechando un eclipse total de Sol (para evitar el deslumbramiento del observador por los rayos solares, en el momento de ser alcanzados por la estrella); la estrella fue fotografiada dos veces, una en ausencia y otra en presencia del eclipse. Así, midiendo el desplazamiento aparente de la estrella respecto al de las estrellas de referencia, se obtenía el ángulo de desviación que resultó ser muy cercano a lo que Einstein había previsto.
El concepto de tiempo resultó profundamente afectado por la relatividad general. Un sorprendente resultado de esta teoría es que el tiempo debe transcurrir más lentamente cuanto más fuerte sea el campo gravitatorio en el que se mida. Esta predicción también fue confirmada por la experiencia en 1962. De hecho, muchos de los modernos sistemas de navegación por satélite tienen en cuenta este efecto, que de otro modo darían errores en el cálculo de la posición de varios kilómetros.

Einstein en el laboratorio
Otra sorprendente deducción de la teoría de Einstein es el fenómeno de colapso gravitacional que da origen a la creación de los agujeros negros. Dado que el potencial gravitatorio es no lineal, al llegar a ser del orden del cuadrado de la velocidad de la luz puede crecer indefinidamente, apareciendo una singularidad en las soluciones. El estudio de los agujeros negros se ha convertido en pocos años en una de las áreas de estudio de mayor actividad en el campo de la cosmología.
Precisamente a raíz de la relatividad general, los modelos cosmológicos del universo experimentaron una radical transformación. La cosmología relativista concibe un universo ilimitado, carente de límites o barreras, pero finito, según la cual el espacio es curvo en el sentido de que las masas gravitacionales determinan en su proximidad la curvatura de los rayos luminosos. Sin embargo Friedmann, en 1922, concibió un modelo que representaba a un universo en expansión, incluso estático, que obedecía también a las ecuaciones relativistas de Einstein. Con todo, la mayor revolución de pensamiento que la teoría de la relatividad general provoca es el abandono de espacio y tiempo como variables independientes de la materia, lo que resulta sumamente extraño y en apariencia contrario a la experiencia. Antes de esta teoría se tenía la imagen de espacio y tiempo, independientes entre sí y con existencia previa a la del Universo, idea tomada de Descartes en filosofía y de Newton en mecánica.




FISICA NUCLEAR

La física nuclear es una rama de la física que estudia las propiedades y el comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente por la sociedad por el aprovechamiento de la energía nuclear en centrales nucleares y en el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear. En un contexto más amplio, se define la física nuclear y de partículas como la rama de la física que estudia la estructura fundamental de la materia y las interacciones entre las partículas subatómicas.


HISTORIA

En el siglo IV a.C., el filósofo griego Demócrito postuló que no es posible dividir infinitamente la materia en partes cada vez más pequeñas y que existe por tanto un constituyente básico e indivisible de la materia al que llamó átomo (en griego, sin división). La idea de Demócrito permaneció 2400 años en el campo de la especulación hasta que, a principios del siglo XIX, los físicoquímicos John Dalton, Amedeo Avogadro y Michael Faraday la ascendieron, por pura necesidad, al rango de teoría científica que explicara sus observaciones en un marco racional y coherente. Durante las décadas siguientes, se descubrieron la mayoría de los diferentes tipos de átomos (elementos químicos), se estudiaron las leyes que rigen su combinación y se clasificaron sistemáticamente, en lo que hoy se conoce como tabla periódica de los elementos de Menedeleyev.

 




El siguiente paso fué descubrir las propiedades y estructura del átomo como entidad individual, lo que dió lugar al nacimiento de la Física Atómica. Tales investigaciones condujeron, entre otros, al descubrimiento del electrón en 1897 por Joseph John Thomson, quién imaginó al átomo como una diminuta nube de electrones sobre una esfera de carga positiva. Un año después, el físico francés Henri Becquerel se encontró con un hecho sorprendente: algunos átomos parecían cambiar de una especie a otra, transmutarse espontáneamente. Esta observación fue interpretada acertadamente como que algunos átomos son inestables y supuso el descubrimiento de la radioactividad natural en 1898. Marie y Pierre Curie estudiaron el proceso durante los años siguientes e identificaron varios elementos radioactivos naturales: el Polonio (Po) y el Radio (Ra).








El físico inglés Ernest Rutherford volvió a dar otro salto y se dedicó a investigar las propiedades y naturaleza de las radiaciones: las clasificó en alfa (átomos de helio ionizados), beta (electrones) y gamma (fotones). Tras llegar a una comprensión “satisfactoria” (no por ello totalmente cierta), utilizó las radiaciones naturales como sondas para investigar la estructura de la materia. Bombardeando láminas de oro extremadamente delgadas con partículas alfa descubrió que la mayor parte de ellas atravesaban las láminas sin deflectarse. Midió con acierto que la materia, y por tanto el átomo, está prácticamente “hueca”. Sin embargo, un reducido número de partículas alfa encontraban en su trayectoria algo que las hacía dispersarse [1].  Contrariamente a la teoría atómica de Thomson, vigente en aquellos momentos, el resultado de sus medidas permitió concluir que la masa de la materia debía concentrarse en una región muy reducida en tamaño, a la que llamó núcleo; el átomo pasó pues a entenderse como un sistema solar en miniatura, con un núcleo de carga positiva en el centro haciendo las labores de sol y electrones orbitando a su alrededor como planetas ligados mediante la fuerza de atracción eléctrica.


Las medidas de Rutherford desvelaron una terra incógnita para las mentes de la época y dieron luz a la Física Nuclear, la rama de la física que se encarga de estudiar los núcleos atómicos. En pocos años, se sucedieron importantes descubrimientos y la concepción del mundo subatómico cambió profundamente. Filosóficamente, la Física Cuántica [2], impulsada por Max Planck, Albert Einstein, Niels Bohr y Erwin Schrodinger, entre otros, acabó con el determinismo mecanicista de finales del siglo XIX y proporcionó una visión probabilística del átomo en particular y del mundo microscópico en general. En el campo de la experimentación, el descubrimiento del neutrón (James Chadwick en 1932) tuvo un gran impacto y ayudó a Werner Heisenberg a explicar el núcleo atómico formado por neutrones (sin carga eléctrica) y protones (con carga eléctrica positiva).

El descubrimiento del neutrón y la investigación de sus interacciones con la materia dieron paso al que probablemente sea el hallazgo de la física con mayor impacto social en el siglo XX. En 1938, Lise Meitner, Otto Hahn y Fritz Strassman observaron que los átomos de uranio (símbolo químico U) se separan -fisionan- en dos fragmentos de masas parecidas cuando se bombardean con neutrones. Posteriormente, comprobaron que el proceso de fisión viene acompañado de una emisión de neutrones (2.3 en media para el uranio) y que libera una enorme cantidad de energía. El físico húngaro-estadounidense Leo Szilard fue el primero en darse cuenta de las tremendas implicaciones del hallazgo, pero cuestionó su viabilidad. Enrico Fermi no tardó demasiado en plasmar la simple y brillante idea: aprovechar los neutrones emitidos en una fisión para mantener una reacción en cadena de fisiones y utilizar el proceso como fuente de energía. El concepto se vió materializado en Diciembre de 1942: PILE-1, el primer reactor nuclear del mundo construido por Fermi y colaboradores, entraba en operación en la universidad de Chicago.

En paralelo al uso pacífico de la energía nuclear, algunas mentes fueron fraguando la idea de desarrollar un arma -bomba- que aprovechase tan ingentes cantidades de energía. Corrían tiempos de guerra por Europa, y el temor de muchos científicos refugiados en EEUU a que el régimen nazi desarrollara tal arma con anterioridad les animó a tomar la iniciativa. El horror ante los nazis estaba muy fresco en sus conciencias y consideraron una prioridad absoluta detener a Hitler, a cualquier precio. Albert Einstein, convencido por Leo Szilard y Eugene Wigner, utilizó su imágen pública e influencia y urgió al presidente Roosevelt a adelantarse a los alemanes en la carrera por la bomba. El resultado fue el proyecto Manhattan, que logró su objetivo y condujo a los bombardeos de Hiroshima (“little boy“,  bomba de uranio) y Nagasaki (“fat man“, una bomba de plutonio). Einstein, que nunca pensó que las bombas serían utilizadas en la guerra, se vió muy afectado por la atrocidad aprobada por el presidente Truman (sucesor del fallecido Roosevelt). Cinco meses antes de su muerte, Einstein escribía la siguiente frase: “cometí un gran error en mi vida… cuando firmé la carta para el presidente Roosevelt recomendando el desarrollo de la bomba atómica, pero hubo una cierta justificación – el peligro de que los alemanes la hicieran antes.”

La evolución posterior de la física nuclear ha venido marcada por estos hechos. No importan los tremendos logros conceptuales o lo  beneficiosos que han sido los desarrollos civiles y pacíficos asociados  a ella: la producción de energía, las terapias contra el cáncer, desarrollos tecnológicos como los primeros ordenadores, entre otros. La percepción que la opinión pública tiene de lo “nuclear” es irracionalmente negativa y hará falta tiempo y educación para que adquiera una cierta perspectiva. Es mi intención que la comprensión y exposición correcta de los hechos en esta bitácora nos lleve, sin embargo, a una conclusión bien distinta. Que vivimos en un mundo “nuclear”, rodeado de la radiación natural que contribuyó a nuestro nacimiento como especie (a través de mutaciones); que lo nuclear ha supuesto y supone beneficios netamente positivos para el desarrollo de la humanidad y que seguirá teniendo un papel destacado a la hora de afrontar los serios retos que se le plantean a la humanidad.


Primeros experimentos
La radiactividad fue descubierta en las sales de uranio por el físico francés Henri Becquerel en 1896.
En 1898, los científicos Marie y Pierre Curie descubrieron dos elementos radiactivos existentes en la naturaleza, el polonio (84Po) y el radio (88Ra).
En 1913 Niels Bohr publica su modelo de átomo, consistente en un núcleo central compuesto por partículas que concentran la práctica mayoría de la masa del átomo (neutrones y protones), rodeado por varias capas de partículas cargadas casi sin masa (electrones). Mientras que el tamaño del átomo resulta ser del orden del angstrom (10-10 m), el núcleo puede medirse en fermis (10-15 m), o sea, el núcleo es 100.000 veces menor que el átomo.
Ernest Rutherford en el año 1918 definió la existencia de los núcleos de hidrógeno. Rutherford sugirió que el núcleo de hidrógeno, cuyo número atómico se sabía que era 1, debía ser una partícula fundamental. Se adoptó para esta nueva partícula el nombre de protón sugerido en 1886 por Goldstein para definir ciertas partículas que aparecían en los tubos catódicos.
Durante la década de 1930, Irène y Jean Frédéric Joliot-Curie obtuvieron los primeros nucleidos radiactivos artificiales bombardeando boro (5B) y aluminio (13Al) con partículas α para formar isótopos radiactivos de nitrógeno (7N) y fósforo (15P). Algunos isótopos de estos elementos presentes en la naturaleza son estables. Los isótopos inestables se encuentran en proporciones muy bajas.
En 1932 James Chadwick realizó una serie de experimentos con una radiactividad especial que definió en términos de corpúsculos, o partículas que formaban esa radiación. Esta nueva radiación no tenía carga eléctrica y poseía una masa casi idéntica a la del protón. Inicialmente se postuló que fuera resultado de la unión de un protón y un electrón formando una especie de dipolo eléctrico. Posteriores experimentos descartaron esta idea llegando a la conclusión de que era una nueva partícula procedente del núcleo a la que se llamó neutrones.
Los científicos alemanes Otto Hahn y Fritz Strassmann descubrieron la fisión nuclear en 1938. Cuando se irradia uranio con neutrones, algunos núcleos se dividen en dos núcleos con números atómicos. La fisión libera una cantidad enorme de energía y se utiliza en armas y reactores de fisión nuclear.



REACCIONES NUCLEARES

Colisión inelástica
La física nuclear incluye también el estudio de las reacciones nucleares: el uso de proyectiles nucleares para convertir un tipo de núcleo en otro. Si, por ejemplo, se bombardea el sodio con neutrones, parte de los núcleos estables Na capturan estos neutrones para formar núcleos radiactivos ²Na:

\hbox{Na}\;+\;2\hbox{n}^{0}\;\to\;^{A+2}\hbox{Na}\;+\;\gamma
Estas reacciones se estudian colocando muestras dentro de los reactores nucleares para producir un flujo alto de neutrones (número elevado de neutrones por unidad de área).
Los núcleos también pueden reaccionar entre ellos pero, si están cargados positivamente, se repelen entre sí con gran fuerza. Los núcleos proyectiles deben tener una energía lo bastante alta como para superar la repulsión y reaccionar con los núcleos blanco. Los núcleos de alta energía se obtienen en los ciclotrones, en los generadores de Van de Graaff y en otros aceleradores de partículas.
Una reacción nuclear típica es la que se utilizó para producir artificialmente el elemento siguiente al uranio (238U), que es el elemento más pesado existente en la naturaleza. El neptunio (Np) se obtuvo bombardeando uranio con deuterones (núcleos del isótopo hidrógeno pesado, 2H) según la reacción:
{}_{92}^{238}\text{U} + {}_1^2\text{H} \to\; {}_{93}^{239}\text{Np} + \hbox{n}
Los núcleos atómicos consisten en protones, cargados positivamente y neutrones sin carga. El número de protones de un núcleo es su número atómico, que define al elemento químico. Todos los núcleos con 11 protones, por ejemplo, son núcleos de átomos de sodio (Na). Un elemento puede tener varios isótopos, cuyos núcleos tienen un número distinto de neutrones. Por ejemplo, el núcleo de sodio estable contiene 12 neutrones, mientras que los que contienen 13 neutrones son radiactivos. Esos isótopos se anotan como {}_{11}^{23}Na y {}_{11}^{24}Na, donde el subíndice indica el número atómico, y el superíndice representa el número total de nucleones, es decir, de neutrones y protones. A cualquier especie de núcleo designada por un cierto número atómico y de neutrones se le llama nucleido.
Los nucleidos radiactivos son inestables y sufren una transformación espontánea en nucleidos de otros elementos, liberando energía en el proceso (véase Radiactividad).
Esas transformaciones incluyen la desintegración alfa, que supone la emisión de un núcleo de helio ({}_{2}^{4}He^{+2}), y la desintegración beta (que puede ser β- o β+). En la desintegración β- un neutrón se transforma en un protón con la emisión simultánea de un electrón de alta energía y un antineutrino electrónico. En la desintegración β+ un protón se convierte en un neutrón emitiendo un positrón.
Por ejemplo, el 24Na sufre una desintegración β- formando el elemento superior, el magnesio:
{}_{11}^{24}Na \to\; {}_{12}^{24}Np + \beta + \bar{\nu}_e
La radiación gamma es radiación electromagnética de alta frecuencia (y por tanto energía). Cuando se produce la desintegración α o β, el núcleo resultante permanece a menudo en un estado excitado (de mayor energía), por lo que posteriormente se produce la desexcitación emitiendo rayos gamma.
Al representar la desintegración de un nucleido radiactivo se debe determinar también el periodo de semidesintegración del nucleido. El periodo de semidesintegración del {}_{11}^{24}Na, es de 15 horas. Es importante determinar el tipo y energía de la radiación emitida por el nucleido.


http://www.youtube.com/watch?v=PgssFYilO0M&feature=fvwrel