¿Son sanos y seguros, los alimentos transgénicos?

Etiquetas

, , , , , , , , , , ,

transgenicos

Una cosa es comer y otra cosa es comer sano y seguro.

Los alimentos transgénicos generalmente se consideran seguros. Sin embargo no hay pruebas suficientes para garantizar la total seguridad. No existen informes de enfermedades o lesiones. Cada alimento transgénico nuevo tendrá que evaluarse de forma individual.

Además de la FDA, la Agencia de Protección Ambiental de los Estados Unidos (EPA, Environmetal Protection Agency) y el Departamento de Agricultura de los Estados Unidos (USDA, U.S. Department of Agriculture) regulan también las plantas y animales modificados genéticamente.

En enero de 2001, el Centro para la Nutrición Aplicada y Seguridad en los alimentos de la FDA (Center for Food Safety and Applied Nutrition) propuso que quienes desarrollen alimentos procesados genéticamente presenten información científica y de seguridad a la FDA al menos 120 días antes de que el producto salga a la venta.

Los alimentos transgénicos son aquellos que han sido producidos a partir de un organismo modificado mediante ingeniería genética y al que se le han incorporado genes de otro organismo para producir las características deseadas. La tecnología del ADN recombinante, manipula secuencias que generalmente codifican genes, posibilitando la extracción de un taxón biológico dado y su inclusión en otro, también la modificación o eliminación de estos genes. Incorporan un gen de resistencia a los antibióticos (gen marcador). El 18% de los cultivos transgénicos son variedades Bt (Bacillus thuringiensis) sobre todo en el maíz, para producir una toxina contra los insectos y el 73% son cultivo transgénicos de soja, maíz, colza y algodón para resistir a herbicidas como el glifosato o el glufosinato.

Alimentos producidos con bioingeniería, OMG o alimentos modificados genéticamente es lo mismo que transgénicos, son nombres alternativos.

En el año 2007, los cultivos transgénicos se extienden a 114,3 millones de hectáreas de 23 países, de los cuales 12 son países en vías de desarrollo y 7 industrializados. En Estados Unidos, el 89% de las plantaciones de soja lo eran variedades transgénicas, el 83% del algodón y el 61% del maíz.

El 99% de la superficie de transgénicos en el 2003 lo aportan: Estados Unidos (63%), Argentina (21%), Canadá (6%), China (4%), Brasil (4%) y Sudáfrica (1%). Españas sigue siendo el único país de la Unión Europea que sembró una superficie importante con cultivos transgénicos. 32.000 hectáreas de maíz Bt.

Monsanto tiene el 80% del mercado de las plantas transgénicas, seguida por Aventis con el 7%, Syngenta con el 5%, BASF con el 5% y DuPont con el 3%. Estas empresas también producen el 60% de los plaguicidas y el 23% de las semillas comerciales.

 

 

Hace millones de años el hombre comenzó a seleccionar y mejorar las plantas y los animales que consume, aprendiendo a utilizar microorganismos para obtener nuevos alimentos: vino, cerveza, pan con levadura, queso, etc.… mediante los procesos de fermentación. Es la biotecnología tradicional  frente a la moderna, introducir un gen de una especie en otra para adquirir una característica determinada.

  • Entre el 12.000 y 4.000 a. de C. se realizaba en las plantas mejora por selección artificial.
  • Tras el descubrimiento de reproducción sexual en vegetales, se realizó el primer cruzamiento intergenérico en
  • En 1909 se produce la primera fusión de protoplastos,
  • En 1927 se obtienen mutantes con mayor productividad mediante irradiación con rayos X y de semillas.
  • En 1983 se produce la primera planta transgénica. También se logra aislar un gen e introducirlo en la bacteria Escherichia coli.
  • En 1986 Monsanto, crea la primera planta genéticamente modificada, añadida un gen de resistencia para el antibiótico Kanamicina.
  • En 1994 se aprueba la comercialización del primer alimento modificado genéticamente, los tomates Flavr Savr, creados por Calgene, una empresa de biotecnología ( se les introdujo un gen “antisentido” con respecto al gen normal de la poligalacturonasa, enzima que produce la maduración del tomate, aguantado más tiempo maduro, y teniendo mayor resistencia.

 

Modificación genética de vegetales

  1. Genes antisentido: el gen antisentido produce la síntesis de un m-RNA complementario de otro-RNA, que al unirse a él impide la síntesis de enzima, haciendo por ejemplo más resistente a la fruta al ablandamiento.
  2. Genes de resistencia insectos: genes de toxina de Bacillus thuringiensis, bacteria patógena para determinados insectos.
  3. Genes de resistencia a los herbicidas: los herbicidas actúan inhibiendo un enzima, lo que produce su muerte, insertando un gen que no es su enzima inhibido por el herbicida, o insertar un gen que su enzima destruya al herbicida.
  4. Cambios en la composición: mejora la calidad nutricional, tanto en nutrición animal como en humana.
  5. Otras posibilidades: resistencia a virus, frío, etc.…

 

Modificación en animales

No han llegado aún a etapas comerciales. Lo más interesante son genes relacionados con el crecimiento rápido (peces) y obtención de leche con proteínas específicas.

 

 

 

Beneficios de los alimentos transgénicos:

  • Alimentos más nutritivos
  • Alimentos más apetitosos
  • Plantas resistentes a la sequía y a las enfermedades
  • Disminución del uso de pesticidas
  • Crecimiento más rápido de plantas y animales
  • Alimentos con características más deseables
  • Alimentos medicinales (medicamentos, vacunas)

Riesgos potenciales:

  • Cambios genéticos inesperados y dañinos en plantas y animales modificados: ingestión de ADN foráneo, esto sucede de forma constante.
  • Cruzamiento los organismos modificados con organismos naturales, llevando a la extinción del organismo original.
  • Plantas menos resistentes a algunas plagas y más susceptibles a otras.
  • Alergenicidad
  • Resistencia a antibióticos: transferencia horizontal, existe la posibilidad de que la transferencia tenga lugar a las células del epitelio gastrointestinal, se exige la eliminación de marcadores de selección a antibióticos.
  • Toxicidad general: los resultados obtenidos son contradictorios.
  • Efectos sobre el medio ambiente

 

Normativa Española en materia de OMG

Se encuentra dentro del convenio internacional: “Protocolo de Cartagena Sobre Seguridad de la Biotecnología del Convenio sobre Diversidad Biológica de 1992”. Entrando en vigor en 2003.La regulación española viene contenida en la Ley 9/2003 de 25 de abril. Las comunidades autónomas tienen capacidad para desarrollar legislación básica.

La normativa comunitaria viene constituida principalmente por: Directiva 2009/41/CE del Parlamento Europeo y del Consejo, de 6 de mayo de 2009. Regula la seguridad y protección para las personas y el medio ambiente. Cada Estado Miembro tiene potestad para autorizar, inspeccionar y controlar las actividades relacionadas con el uso de OMG.

 

Links relacionados:

 

  • FDA “Transgénicos”

http://www.fda.gov/ForConsumers/ConsumerUpdates/ConsumerUpdatesEnEspanol/ucm439236.htm

 

  • GREENPEACE “Guía roja y verde de los alimentos transgénicos”

http://www.greenpeace.org/espana/Global/espana/report/transgenicos/2014/greenpeace_16102014_guia_roja_verde.pdf

  • EL PAIS “Agricultura transgénica”

http://elpais.com/tag/agricultura_transgenica/a/

 

 

¿Quién puede participar en un ensayo clínico?

Etiquetas

, , , , ,

foto_ensayo_2

Para algunos pacientes con enfermedades complicadas, entrar en un ensayo clínico puede ser una solución:

  • Para acceder a la mejor terapia disponible
  • Para acceder a alguna terapia no autorizada mejor que las existentes

El médico es la persona que indicará al paciente la participación en ensayos clínicos que le van a resultar beneficiosos, si cumple las condiciones necesarias para participar, y le indicará los pasos a seguir. Si el paciente conoce algún ensayo que se esté llevando a cabo que pueda ser beneficioso para su enfermedad la persona de enlace es el médico, al que debe solicitar la información, con la historia médica, y le dirá si cumple los criterios y puede entrar a formar parte del ensayo.

Un ensayo clínico es una evaluación experimental de

  • un producto,
  • sustancia,
  • medicamento,
  • técnica diagnóstica o terapéutica,

para su aplicación a seres humanos

se valora:

  1. eficacia y seguridad
  2. utilidad
  3. mecanismo de acción
  4. efectividad
  5. efectos secundarios
  6. relación: beneficios /efectos secundarios
  7. tipo de pacientes para los que está indicado

Todos los ensayos clínicos son dirigidos por “monitores” personas expertas, revisados y autorizados por “comités éticos” y por “La Agencia Española del Medicamento y Productos Sanitarios”, que garantiza que va a estar el paciente sometido a los menores riesgos posibles y que su participación puede beneficiarles.

 

Diagrama de flujo de los participantes en un ensayo clínico

 

1 º. Pregunta Primaria
2.º Criterios de inclusión/exclusión
3º Asignación aleatoria
4º Grupo experimental/Grupo control (placebo)
5º Resultados

 

Tipos de ensayos clínicos según la fase de investigación

Fase I Primeros pasos en la investigación de un fármaco en seres humanos Objetivo: estimación inicial de tolerancia, seguridad, farmacocinética y farmacodinámica (pero no eficacia) Típicamente incluyen sólo pocos voluntarios sanos (n=20-80). No suelen tener grupo control ni enmascaramiento
Fase II Ensayo terapéutico, pero sólo exploratorio Objetivo: información preliminar sobre eficacia, patrón dosis-respuesta, tolerancia y ampliación de los datos de seguridad obtenidos en fase I ensayos pequeños (n=100-200) en pacientes con la enfermedad de interés.

Preferentemente con grupo control

Fase III El más frecuente en publicaciones médicas, dirigido a lograr la aprobación o comercialización del fármaco Objetivo principal: demostrar un efecto terapéutico (eficacia) y valorar la seguridad del nuevo fármaco frente a alternativas disponibles (placebo, si no existe ninguna) Muestra más amplia de pacientes con una única enfermedad concreta

Controlados y aleatorizados

Fase IV Vigilancia postcomercia-lización y a largo plazo Objetivo: evaluar seguridad y efectividad, nuevas indicaciones, efectos secundarios, morbilidad y mortalidad a largo plazo. Preferentemente, pero no necesariamente, controlados y aleatorizados

 

 

 

Cada ensayo tiene unos requisitos diferentes que determinan que una persona pueda participar o no, si no seleccionamos correctamente la muestra se produce una desviación o sesgo de selección, es uno de los errores que debemos evitar en el diseño de un ensayo clínico.

Los criterios que seguimos para obtener una muestra reciben el nombre de “Criterios de selección”, son pautas que definen aspectos de una población y que delimitan la población a estudio. De todos los sujetos que cumplen los criterios de selección se elige una parte para cumplir el estudio.

 

Los criterios de selección pueden ser:

 

  1. Criterios de inclusión: describen el tipo de sujetos que se pretenden incluir en el ensayo. La descripción ha de ser lo más clara y detallada posible, para que otro investigador pueda repetir el ensayo en las mismas circunstancias.
  • Edad
  • Definición de la enfermedad incluyendo criterios diagnósticos
  • Estadio o gravedad de la enfermedad
  • Ámbito de procedencia de los pacientes: instituciones, hospital, atención primaria
  • Consentimiento informado

 

  1. Criterios de exclusión: describen el tipo de sujetos que se excluirán del ensayo por razones éticas, metodológicas, prácticas o de seguridad para el sujeto.
  • Embarazo/Lactancia
  • Enfermedades graves
  • Contraindicaciones para el fármaco en estudio: enfermedades concomitantes, fármacos concomitantes
  • Logísticos: dirección física (vivir lejos del centro de ensayos)
  • Limitaciones de los pacientes
  • Seguridad de los pacientes
  • Antecedentes personales
  • Alteraciones analíticas
  • Hábitos y alimentación

De los sujetos que cumplen los requisitos y que han sido seleccionados no todos terminarán el estudio. Unos porque no lo empezarán (pérdidas prealeatorización) y otros porque no podrán terminarlo (pérdidas postaleatorización) . Estas pérdidas hay que sumarlas al total de sujetos para realizar el cálculo del tamaño muestral.

 

 

En la selección de personas debemos de tener en cuenta:

  • si se incluyen solo pacientes de alto riesgo se disminuye la capacidad de generalizar los resultados a la población de referencia. Si se busca aplicabilidad clínica, es mejor incluir pacientes de amplio espectro clínico.
  • El tamaño de la muestra debe ser el óptimo para detectar las diferencias estadísticas y clínicamente significativas sin que se deban al azar. Debemos usar técnicas estadísticas de datos KDD (Knowledge Disscovery in Databases).
  • Si es posible que se beneficien los pacientes de los resultados del ensayo.
  • En algunos casos se usa una etapa de prueba (run-in period) de semanas o meses antes de la aleatorización para seleccionar y aleatorizar sólo a los que cumplen bien el tratamiento. Se puede así sobreestimar los efectos de la intervención y minimizar los riesgos, midiendo más la eficacia (condiciones ideales) que la efectividad (condiciones reales).

En conclusión el ensayo clínico es un estudio experimental, analítico, prospectivo, controlado con placebo y aleatorizado, con muestras adecuadas y tamaño suficiente como para permitir extrapolar los resultados a la población diana, pueden durar desde días hasta años.

Y los criterios de selección de la muestra es una etapa importante para validad los resultados realizando  el ensayo bajo el beneficio  y seguridad del paciente.

 

Links relacionados:

  • Registro Español de ensayos clínicos: 

https://reec.aemps.es/reec/faces/buscador/index.xhtml

 

  • Agencia Española del medicamento:

http://www.aemps.gob.es/

 

 

 

Sanidad y Ciencia ante las elecciones 2015

Etiquetas

, , , ,

Senado 2015

Las elecciones municipales y autonómicas del 24 de mayo y las elecciones generales que se llevarán a cabo antes del 20 de diciembre tienen que tener en cuenta  el mantenimiento del sistema público, vamos a analizar la situación actual de los dos campos.

 

  1. Sanidad (informe Cronos- The Boston Consulting Group) 

 

  • Conseguir una financiación suficiente, ya que los gobiernos regionales presupuestan por debajo de lo que gastan (9.000 euros).
  • Difícil reducción del gasto real, por el envejecimiento de la población, en una década el Sistema Nacional de Salud (SNS) gastará entre 15.000 y 30.000 millones en atender pacientes crónicos. Ocho de cada diez consultas en atención primaria y seis de cada diez ingresos hospitalarios en España se deben a una enfermedad crónica. Estas patologías afectan a 19 millones de personas, los crónicos consumen el 75% de los recursos del SNS.
  • Las compañías farmacéuticas tienen una I+D cada vez más costo
  • Desigualdades en el acceso a nuevos tratamientos en las regiones, en el ámbito ambulatorio y hospitalario.
  • El paciente activo” por medio de la educación e información, en el manejo de su enfermedad, con mejores resultados, entre un 8% y un 21% más barato con menos uso y mejor adherencia a la medicación.

 

  1. Investigación científica en España

 

  • PIB dedicado a I+D son desfavorables: 0,9% en España (duodécimo puesto entre los quince estados de la Unión Europea), la media de la UE es 1,9%. En EE.UU es el 2,7% de su PIB.
  • Planificar y establecer áreas de I+D, en los que España sea referencia.
  • Flexibilizar procedimientos administrativos de las carreras universitarias en las universidades.
  • Pacto social para que los españoles se den cuenta de la importancia de la investigación.
  • Los Gobiernos deben estimular que las empresas y universidades apuesten por la investigación. Con incentivos fiscales para las empresas que investiguen.

 

 

Links relacionados:

 

  1. I+d en España

http://www.ine.es/inebmenu/mnu_imasd.htm

  1. Salud en España

http://www.ine.es/inebmenu/mnu_salud.htm

 

La Inteligencia Emocional y la Empresa

Etiquetas

, , , ,

inteligencia emocional

Al primitivo cerebro instintivo, también llamado “reptiliano” se añadieron hace 200 millones de años estructuras corticales que conformaron el cerebro emocional, también cerebro de los mamíferos.  Hace 60 millones de años hubo una evolución de la corteza cerebral dando lugar al neocórtex, o “cerebro de los primates” que hizo posible la razón y la inteligencia de los homínidos.

“La inteligencia emocional” es la base de la inteligencia social, desde el momento que los animales tuvieron que juntarse para defenderse de los depredadores, mejorar la caza y obtener alimentos. Así el trabajo en equipo es más necesario, desarrollándose la inteligencia emocional y social.

De la etapa reptiliana son el tronco encefálico y el cerebelo, controlando la motricidad y los instintos relacionados con la supervivencia.

Durante la etapa evolutiva de los mamíferos primitivos se desarrollaron el sistema límbico, que contiene tálamo, hipotálamo, hipocampo y amígdala. Es el centro de los afectos y las emociones. También: el olfato, la sangre caliente, las hormonas, la expresión facial y corporal.

En la etapa de los primates se formó el neocórtex, al que se debe la capacidad de inventar y usar herramientas.  Con la polarización del hemisferio izquierdo del neocórtex, apareciendo la capacidad de razonar, establecer relaciones de causa-efecto, construir procedimientos algorítmicos de resolución de problemas, el pensamiento abstracto. Es el “cerebro racional”

 

La parte emocional es lo que nos hace comportarnos, percibir y actuar de una manera en la vida. Está basada en las cinco emociones básicas MATEA:

  • Miedo: objetivo protección y cuidado.
  • Afecto: objetivo es la vinculación.
  • Tristeza: objetivo el retiro.
  • Enojo: objetivo la defensa.
  • Alegría: objetivo la vivificación.

En 1995 el periodista estadounidense Daniel Goleman, que había cursado la carrera de psicología, en su libro “Inteligencia emocional”, reunió los conocimientos de Salovey y Mayer o Antonio Damasio que habían surgido en los últimos años, relacionados con la importancia de las emociones en el comportamiento:

  • Tomar conciencia de las emociones.
  • Comprender los sentimientos de los demás.
  • Tolerar las presiones y frustraciones que soportamos en el trabajo.
  • Potenciar nuestra capacidad de trabajar en equipo.
  • Actitud empática y social.
  • Convivir con los demás en un ambiente armónico.

Según Goleman la inteligencia emocional puede dividirse en dos áreas:

  1. Inteligencia intrapersonal: conocimiento de uno mismo, usando los sentimientos como guías en la conducta.
  2. Inteligencia interpersonal: comprensión de los demás. Capacidad de reaccionar ante las emociones de los otros.

Se puede aprender a regular las respuestas emocionales con la madurez, equilibrando la respuesta emocional biológica con el respeto de las normas de convivencia.

La competencia emocional es el dominio de habilidades que nos permiten tener relaciones satisfactorias con los demás. Se es capaz de resolver conflictos y trabajar en equipo. Con asertividad, expresando lo que uno piensa o siente sin menospreciar lo de los demás, en beneficio de nuestra salud.

No hay emociones positivas o negativas, sino respuestas de las personas a una situación. Podemos dividir las emociones en: útiles o poco útiles.

 

 

Jack Block, un psicólogo de la Universidad de Berkeley, ha estudiado la forma de medir la inteligencia emocional (“capacidad adaptativa del ego”) , la relación con el CI y la diferencia entre hombres y mujeres.

Los hombres tienden a ser: socialmente equilibrados, a rumiar sus preocupaciones, con gran capacidad de compromiso en las causas, adoptando responsabilidades. Su vida emocional es rica. Los hombres con elevado CI, se caracterizan por amplia gama de intereses intelectuales.

Las mujeres: expresan sus sentimientos y soportan la tensión. Se relacionan haciendo amistades con facilidad. Las mujeres con elevado CI, expresa claramente sus pensamientos, con amplia gama de intereses estéticos e intelectuales.

En 1999 Goleman, publica el libro “La inteligencia emocional en la empresa”: la inteligencia emocional puede mejorar el crecimiento de las empresas:

  • Autoconocimiento emocional
  • Logro
  • Adaptabilidad
  • Autodominio
  • Optimismo
  • Empatía
  • Conciencia política
  • Influencia
  • Creación de vínculos

 

El fracaso en las empresas viene determinado por los siguientes factores:

  1. El temor a equivocarse
  2. Necesidad de control
  3. Recelo en ayuda y confianza

El éxito en las empresas viene determinado por los siguientes factores:

  1. Equilibrio en los planes entre los aspectos humanos y económicos.
  2. Estimular mejoras en el desempeño.
  3. Comunicación abierta con confianza.
  4. Fortalecer las relaciones internas y externas.
  5. Compartir recursos.
  6. Innovación y aprendizaje en equipo.
  7. Pasión por competir y perfeccionarse.

 

Para que los trabajadores en las empresas tengan la máxima producción , es necesario el compromiso y el entusiasmo, eso no se puede imponer. Entrando en juego la inteligencia emocional de la que nos ha hablado Goleman.

 

 

Links relacionados:

  • Goleman y la inteligencia emocional en la Empresa

https://www.youtube.com/watch?v=PnGjUK_rNvQ

  • Daniel Goleman linkedin

https://www.linkedin.com/in/danielgoleman

  • Neurología de las emociones 

http://www.neurowikia.es/content/bases-neurobiologicas-de-las-emociones

 

 

 

 

Muerte sencilla y justa (S.XVIII): La guillotina

Etiquetas

, , ,

guillotina

El nombre de Guillotín, no ha estado asociado a una enfermedad, un síndrome, un instrumento o una operación,  sino a una máquina de ajusticiar, que se ha mantenido hasta la abolición de la pena de muerte en Francia, en 1981.

En el siglo XVIII en Europa, se ejecutaba mediante:

  • la rueda para los traidores
  • el desmembramiento para los traidores
  • el ahorcamiento para los traidores, para el pueblo llano
  • decapitación con el hacha y la espada se usaba para los nobles y aristócratas
  • la hoguera para los herejes, brujas y hechiceros

Joseph Ignace Guillotín (1738-1814)  fue jesuita, doctor en medicina y profesor de Anatomía en la Facultad de París. Elegido diputado para la Asamblea Constituyente de 1789. Debido a los bárbaros métodos para ejecutar a los condenados a pena de muerte y en el espíritu igualitario de la Revolución Francesa, le movieron a proponer a la Asamblea (octubre de 1789) la adopción de la máquina. Pidió al secretario de la Academia de Cirugía, el Doctor Antoine Louis, que diseñara una máquina basada en las ya existentes en otros países europeos.  Máquinas parecidas se habían utilizado en: Bohemia, Alemania, Escocia, Inglaterra, Estados Pontificios e Italia.

La fabricación fue encargada al fabricante de clavicordios alemán Tobias Schmidt, asesorado por su amigo el verdugo de París Charles-Henri  Sanson.

El pueblo francés estuvo dudando entre bautizarla  “Louisette”  (o la petite Louison) por el nombre del inventor, o la “Guillotine”  por el nombre del creador de la Ley. Finalmente se impuso este último hasta nuestros días.

La Asamblea Nacional adoptó la guillotina para que la pena de muerte fuera igual para todos, sin distinción de rangos ni clase social. Unas 1119 personas fueron decapitadas en la Plaza de la Concordia durante la Revolución Francesa.

La guillotina consiste en un armazón de dos montantes verticales unidos en su parte superior por un travesaño denominado “chapeau” (sombrero), que sostiene en alto una cuchilla de acero con forma triangular con un lastre “mouton” de plomo de más de 60 kilogramos en su parte superior. En su parte inferior hay un cepo de dos medias lunas “fenêtre”, de las cuales la parte superior es móvil. Detrás de la máquina hay una plancha de madera que actúa como báscula. Hasta el siglo XX, estaba la guillotina elevada sobre un cadalso y pintada de rojo. La ejecución se completa en menos de un minuto, la cuchilla cae sobre el cuello, separando la cabeza del tronco a la altura de la cuarta vértebra cervical, separada se recoge en un saco de cuero.

El uso de la guillotina finalizó con la abolición de la pena de muerte en Europa:

  • Suecia 1910
  • Bélgica 1918
  • Alemania Federal 1949
  • República Democrática Alemana 1969
  • Francia 1981

 

 

¿Origen geológico de la vida?

Etiquetas

, , , , , , ,

quimica vida

Jack Szostak, biólogo molecular e investigador del origen de la vida en el Hospital General de Massachusetts en Bostón, propone un nuevo marco, ya que todos los elementos esenciales hace 4 mil millones de años, según publica en la revista “Nature Chemistry” el 16 de marzo, la genética y el metabolismo pueden haber surgido de forma simultánea a través de una reacción que implica:

  • cianuro de hidrógeno (HCN)
  • sulfuro de hidrógeno (H2S)
  • impulsado por ultravioleta (UV).

Mezcla de dos gases venenosos, que crearían los cimientos de la vida en el planeta:

  • ADN
  • proteínas
  • lípidos

Los compuestos pudieron mezclarse en el agua de estanques y arroyos, generando una “sopa” venenosa que dio como resultado las primeras células.

El cianuro de hidrógeno se habría formado debido a los cometas que impactaron en la Tierra, y el sulfato de hidrógeno por las erupciones volcánicas, a esto hay que sumar la luz ultravioleta proveniente del sol.

Bravesh H. Patel del Campus Biomédico de Cambridge (Reino Unido) ha encontrado que a través del cianuro y del sulfuro se pueden producir:

  • Azúcares de dos o tres átomos de carbono (combustible para el organismo)
  • Aminoácidos (las unidades con las que se construyen las proteínas)
  • Ribonucleótidos (elementos básicos del ARN, que transporta la información genética)
  • Glicerol (unidad de los lípidos)

H2S y HCN en la Tierra Primitiva, pueden dar lugar a más de 50 moléculas distintas. El glicerol y 11 aminoácidos, se unen a las biomoléculas que se habían sintetizado, incluyendo los ribonucleótidos de citidina y uridina, y azúcares pequeños. Estas reacciones tienen rendimientos que oscilan entre el 40% y el 70%, el experimento de Miller y Urey en 1953, sobre el origen de la vida y las reacciones que tuvieron lugar a partir de la “sopa”, dando aminoácidos fue menor del 1%,donde una chispa eléctrica atraviesa una mezcla de metano, amoniaco, hidrógeno y agua.

 

John von Neumann aclaró las relaciones entre replicación y metabolismo (von Neumann, 1948):

  • Hardware: procesa la información, ARN ribosómico, ARN de transferencia—Metabolismo
  • Software: incorpora la información, ARN genómico, ADN———————Replicación

¿Qué entendemos por vida? Según Von Neumann, la vida es el metabolismo y la replicación.

El origen de la vida (1957), de A.I. Oparin,, el orden de los acontecimientos del origen de la vida fue en primer lugar las células, en segundo las enzimas y en tercero los genes. Cuando un determinado líquido oleoso se mezclaba con agua, los dos líquidos formaban una mezcla estable denominada coacervado. Propuso que la vida comenzó mediante la acumulación de poblaciones moleculares en el interior de las gotitas de coacervado. Las enzimas surgieron en segundo lugar, organizando las poblaciones moléculas . Los genes aparecieron en tercer lugar.

Tres paleontólogos californianos (Davidson et al. 1995) han recogido pruebas de que la gran mayoría de los diseños corporales actuales surgieron del desarrollo indirecto: el sistema mediante el cual un embrión separa un conjunto de células que están destinadas a producir un adulto, sin que el diseño corporal del adulto tenga conexión con el diseño corporal del embrión. Los organismos multicelulares evolucionaron mediante un proceso de dos etapas.

Primera etapa: la evolución de las formas embrionarias de complejidad limitada que carecían de la maquinaria genética para programar estructuras especializadas, incapaces de evolucionar más allá de un nivel primitivo.

Segunda etapa: evolución de las formas adultas con el equipo de controles genéticos, etapa adulta  que permite la evolución de vías metabólicas ajustadas con mucha más precisión.

Hay tres revoluciones en el origen de la vida, siguiendo estas etapas:

  1. el periodo de origen: el metabolismo y la replicación.
  2. la evolución de las células eucarioticas con la simbiosis  la invasión parasitaria
  3. la evolución de los organismos superiores: el embrión y el conjunto de células que producen el adulto.

Freeman J. Dyson (Princeton 1.999) “Los orígenes de la vida” intenta comprender de forma teórica el origen de la vida de Oparin, demostrando que la vida comienza con el metabolismo, en lugar de con la replicación exacta. Reduce la teoría de Oparin de una forma matemática en dos fases: la primera es una descripción formal de las poblaciones moleculares, como un sistema dinámico clásico y dando precisión a las ecuaciones dinámicas. La segunda fase consiste en la reducción de la teoría general a un modelo elemental con la probabilidad de interacciones moleculares.

L a población de moléculas en el interior de la gotita puede cambiar de un momento a otro por reacciones químicas dentro de las poblaciones, por reacciones que incorporan pequeñas moléculas desde el entorno, o por reacciones que expulsan pequeñas moléculas hacia el entorno. Dada una población en el estado A, tras la siguiente reacción química pasa al estado B, con determinada probabilidad, que es el elemento de la matriz M entre los estados A y B.

Así la población evoluciona a través del espacio de los estados posibles de una forma discontinua y estocástica, mediante una sencilla ecuación lineal

 

P (K+1)= M P(K)

P(k) es la distribución de la probabilidad de la población después de k etapas.

P(k+1) es la distribución de la probabilidad después de k etapas.

Los acontecimientos decisivos en una teoría del origen del metabolismo son los escasos saltos estadísticos, cuando una población molecular en un estado cuasi-estacionario experimenta una sucesión de reacciones químicas que la empuja por encima de una barrera, en contra del gradiente de probabilidad, y hacia otro estado cuasi-estacionario. Si el estado inicial es desordenado y el final ordenado, el salto puede considerarse un modelo para el origen del metabolismo.

 

 

Links relacionados:

 

  • Investigación de vida en el Universo NASA

https://astrobiology.nasa.gov/

  • Investigación de vida en el Universo CSIC España

http://www.cab.inta.es/es/inicio

 

 

 

Buscando los restos de Cervantes

Etiquetas

, , , , , ,

cervantes

  • Cervantes junto con Shakespeare son dos figuras cumbre de la literatura mundial. El interés de buscar los restos del escritor no solo es como admiración y reconocimiento de su contribución a nuestra lengua, sino también como nuevo tipo de turismo: el cultural. Madrid recibe 8 millones de turistas todos los años, gastando 20 euros (transporte, entrada, refresco) sube a 160 millones.  También la  búsqueda de los restos es equivalente a una campaña de publicidad.

 

  • Cervantes, novelista, poeta y dramaturgo español, nació el 29 de septiembre de 1547 en Alcalá de Henares y murió el 22 de abril de 1616 en Madrid, a la edad de 68 años. Es considerado la máxima figura de la literatura española. Conocido por haber escrito “El ingenioso hidalgo Don Quijote de la Mancha”, la primera novela moderna. Se alistó como soldado y participó en la batalla de Lepanto, en 1571; donde fue herido. En 1575 fue apresado con su hermano Rodrigo, y llevados cautivos a Argel, cinco años estuvo prisionero, hasta que en 1580 pudo ser liberado. En 1587 se casó y, entre 1587 y 1600, residió en Sevilla como comisario de abastecimientos, requisando alimentos por Andalucía para las expediciones de Felipe II. En 1604 se transladó a Valladolid en busca de un mecenas de la corte, debido a las dificultades económicas. En 1605 publica la primera parte del “Quijote”. La muerte le sorprendió en su casa, situada en la esquina entre la calle León y la calle Francos, en pleno barrio de las Letras madrileño. Dos semanas antes, el escritor había profesado en la Orden Tercera de los Franciscanos, y había anunciado su deseo de ser enterrado en la Iglesia del Convento de las Trinitarias Descalzas, en el barrio donde vivía. Esta orden religiosa recaudó los fondos para la liberación de Cervantes y su hermano de Rodrigo tras su cautiverio en Argel.

 

  • Murió debido a las complicaciones de su Diabetes mellitus y por una insuficiencia cardiaca congestiva de origen hipertensivo. En la historia clínica de Cervantes, se menciona como posible causa de la muerte “una enfermedad del corazón”, que tiene que ver con la arterioesclerosis.

 

  • El Proyecto Cervantes, lleva a cabo la fase forense y antropológica en el convento de las Trinitarias. Un ambicioso proyecto de investigación patrocinado por el Ayuntamiento de Madrid, con el apoyo de la Comunidad de Madrid, el Arzobispo y la Comunidad Religiosa del Convento de las Trinitarias, han encontrado el nicho donde se hayan los restos sin cotejar con la prueba del ADN, que comparte con otras 16 personas.

Un equipo de especialistas multidisciplinar, encabezado por el profesor Francisco Etxebarria, realiza con Falcon High Tech la prospección geofísica:

  • mediante georadar (GPR)
  • antena de alta resolución de 400 Mhz en el suelo del habitáculo
  • termografía infrarroja (TIR)
  • fotografía infrarroja (IR) en los parámetros verticales y horizontales

 

 

Cuatro equipos de trabajo simultaneo:

Expertos en arqueología, antropología y medicina inspeccionan, analizando en los restos:

  • morfología
  • edad
  • estatura
  • patología

 

  • EQUIPO DE INVESTIGACIÓN

 

  1. Intervención arqueológica

 

  • Almudena García Rubio (osteoargueóloga, Sociedad de Ciencias Aranzadi)
  • Lourdes Herrasti (osteoarqueóloga, Sociedad de Ciencias Aranzadi)
  • Carme Koch (licenciada en historia especialista en Arqueología)
  • Tito Aguirre (técnico en arqueología, Sociedad de Ciencias Aranzadi)
  • Asier Izaguirre (técnico en arqueología, Sociedad de Ciencias Aranzadi)
  • Sebastián Lasa (técnico en arqueología, Sociedad de Ciencias Aranzadi)

 

  1. Fotografía infrarroja y termografía

 

  • Luis Avial (técnico en georadar, Falcon High Tech)
  • Santiago Cubas (técnico Falcon High Tech)
  • Alvar Povo (técnico Falcon High Tech)
  • Juan Plaza (asesor técnico Falcon High Tech)
  • Gonzalo Tapia Sánchez (ingeniero topográfo, modelado 3D, Ubícalo Ingeniería Inversa)

 

 

  1. Análisis antropológico de los restos

 

  • Francisco Etxebarria (especialista en Medicina Forense, Universidad del País Vasco, Sociedad de Ciencias Aranzadi)
  • José Antonio Sánchez (especialista en Medicina Forense, Universidad Complutense de Madrid)
  • José Luis Prieto (especialista en Medicina Forense, odontólogo, médico forense en Madrid)
  • Bernardo Perea (especialista en Medicina Forense, Universidad Complutense de Madrid)
  • Javier Dorado (especialista en Medicina Forense, Universidad Complutense de Madrid)
  • Fernando Serrulla (especialista en Medicina Forense, Instituto de Medicina Legal de Galicia, Sociedad de Ciencias Aranzadi)
  • Miguel Botella (especialista en Antropología Forense, Universidad de Granada)
  • Ignasi Galtés (especialista en Medicina Forense, Instituto de Medicina Legal de Catalunya)
  • Luis Ríos (doctor en Antropología Física, Sociedad de Ciencias Aranzadi)
  • Almudena García Rubio (osteoarqueóloga, Sociedad de Ciencias Aranzadi)
  • Lourdes Herrasti (osteoarqueóloga, Sociedad de Ciencias Aranzadi)
  • Mari Paz de Miguel (osteoarqueóloga, Instituto Universitario de Investigación en Arqueología y Patrimonio Histórico, Universidad de Alicante)
  • Javier Iglesias (antropólogo, Universidad Complutense de Madrid)
  • María Benito (antropóloga, Universidad Complutense de Madrid)
  • Alexandra Muñoz (antropóloga, Universidad Complutense de Madrid)
  • Marian Martínez de Pancorbo (ADN, Universidad del País Vasco)
  • Carles Lalueza (ADN, Consejo Superior de Investigaciones Científicas, Barcelona)
  • Antonio Alonso (ADN, Instituto Nacional de Toxicología y Ciencias Forenses, Madrid)
  • Julio Montes (médico internista e historiador, Hospital Universitario de Vigo)
  • Mercedes González (Instituto de Estudios Científicos en Momias)
  • Margarita Sanin Matías (artista forense, Licenciada en Bellas Artes)

 

 

  1. Estudio de textiles:

 

  • Irene Seco (conservadora del Museo del Traje de Madrid)
  • Elena Vázquez (conservadora del Museo del Traje de Madrid)
  • Lucina Llorente (especialista en Tejidos del Museo del Traje de Madrid)
  • Elvira González (conservadora del Museo del Traje de Madrid)

 

Links interesantes:

  • Biblioteca virtual Miguel de Cervantes

http://www.cervantesvirtual.com/

 

  • Centro virtual Cervantes

http://cvc.cervantes.es/

 

 

 

 

 

 

Run del LHC

Etiquetas

, , , , ,

acelerador

 

 

El Gran Colisionador de Hadrones, o LHC, en la frontera entre Francia y Suiza, el acelerador de partículas que descubrió el bosón de Higgs en julio de 2012 vuelve a funcionar este mes. Capaz de reproducir lo que pasó en el universo poco después del Big Ban. Estará el LHC encendido durante tres años. Funcionará a doble potencia para cruzar una nueva frontera de la física.

El LHC, el gran colisionador de Hadrones se encuentra en el CERN, el laboratorio Europeo de Física de Partículas. Los datos se procesan en 11 instituciones de 1º nivel y 150 instituciones de 2º nivel, involucra a 7.000 físicos de 45 países.

Los protones recorren el anillo que mide 27 kilómetros unas 11.000 veces a velocidades cercanas a la de la luz. Se controla cuándo, cuántos protones y cuándo los dos haces opuestos comenzarán a chocar produciéndose nuevas partículas. En 20 minutos, el CERN acelera protones hasta rozar la velocidad de la luz. Al chocar, los protones se desintegran dejando al descubierto:

  • Quarks
  • Leptones
  • Resto de partículas elementales (bosón de Higgs)

 

Se han realizado:

  • Medidas precisas del top quark
  • Medidas precisas del ángulo de violación de la simetría CP
  • Se han descubierto nuevas resonancias en el “experimento LHCb”, es decir nuevos tipos de partículas.

Grandes retos:

  • Descubrir la supersimetría, entrar en una nueva dimensión. Es una teoría que complementa el Modelo Estándar de la física de partículas. La supersimetría o SUSY, supone que cada partícula elemental conocida tiene una hermana supersimétrica desconocida. A cada higgs le corresponde un higgisino, a cada neutrino su neutralino, etc. La supersimetría explicaría el origen de la materia oscura, alrededor del 23% de lo que hay en el Universo. En la actualidad el Universo está compuesto de materia ordinaria, en su origen, en el Big Bang, hubo una pequeña descompensación, por cada mil millones de partículas de antimateria, se crearon mil millones de partículas de materia y unas partículas de materia, la materia se destruyó con la antimateria menos esas partículas que son las que forman hoy nuestro Universo.

El aumento de energía en el LHC, dará lugar a una mayor producción de partículas de antimateria para explicar esta cuestión.

 

  • Desvelar el origen del bosón de Higgs.

 

  • Descubrir más dimensiones de las tres que existen, al detectarse movimientos de partículas que solo pueden existir, en otras dimensiones. Pudiendo así entenderse porque la gravedad es una fuerza débil, comparada con el resto de fuerzas de la naturaleza.

 

Se necesita para llevar a cabo este nuevo conjunto de experimentos:

  • Aumento considerable de la energía, pasando de 4 teraelectronvoltios (TeV) a los 6.5 TeV.

 

  • Haces de protones más pequeños en los puntos de colisión, incrementando el número de colisiones cuando los dos haces colisionan, enviando más información al detector.

 

 

Se ha modificado:

  1. Nuevos imanes.
  2. Conexiones reforzadas
  3. Protección para asegurar la superconductividad.
  4. Haces más energéticos.
  5. Haces más pequeños, para aumentar la probabilidad de que dos protones choquen en los puntos de interacción, consiguiéndose más colisiones.
  6. Menos protones pero más juntos.
  7. Mayor voltaje.
  8. Criogenia mejorada, mejor la superconducción de los imanes a -270º.
  9. Electrónica resistente a la radiación.
  10. Vacío más seguro.

 

 

Retorno a la industria española:

  • Hay una plantilla de 2.300 personas, de forma directa a través de contratos que tienen los estados miembros con el CERN.
  • De forma indirecta con la transferencia de tecnologías o procesos asociados con el acceso a áreas tecnológicas.
  • Colaboran 200 empresas con 900 españoles:
  • Ingeniería civil: Empresarios Agrupados, Dragados, IDOM
  • Ingeniería eléctrica: JEMA, ANTEC
  • Ingeniería mecánica: Felguera Construcciones Mecánicas, Asturfeito, Nortemecánica, Elay, EADS-CASA.
  • Tecnologías del vacío y baja temperatura: Telstar, Vacuum projects
  • Electrónica: GTD, CRISA, INSYTE, SAIFOR
  • Servicios: IBERINCO, SENER, INTESA-INARSA, TAM

 

 

  • Instituciones

 

  • Experimento LHCb:

Universidad de Santiago de Compostela (USC)

Universitat de Barcelona (UB)

Universitat Ramón Llull (URL)

 

  • Experimento ALICE:

Instituto Galego de Física de Altas Enerxias (IGFAE) de la USC.

Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT).

 

 

Link del CERN:

http://home.web.cern.ch/

 

Criobiología: estirando la vida

Etiquetas

, , , , , , , , ,

criogenesis

El hombre busca la inmortalidad a través de la ciencia, controlando los procesos fisiológicos, hay varias compañías que comercializan esto.

La Criobiología es la rama de la biología que estudia los efectos de bajas temperaturas en seres vivos, puede incluirse:

  • proteínas,
  • células,
  • tejidos
  • órganos,
  • organismos completos

Criogenia: rama de la física e ingeniería que estudia la producción y uso de temperaturas muy bajas.

Criónica: preservación de humanos y mamíferos a bajas temperaturas con la intención de revivirlo en el futuro.

Áreas de estudio en criobiología:

  1. Estudio de la adaptación al frío.
  2. Criopreservación de células, tejidos, gametos y embriones.
  3. Preservación de órganos bajo condiciones de hipotermia.
  4. Liofiliación
  5. Criocirugía.
  6. Física de la sobrefusión, la nucleación y crecimiento de hielo y aspectos de la transferencia de calor.

Criopreservación en la naturaleza

  1. Bacterias: tres especies de bacterias, Carnobacterium pleistocenium, Chryseobacterium greenlandensis y Hermininiimonas glaciei sobreviven a temperaturas congeladas en hielo durante miles de años.
  2. Plantas: con el proceso de endurecimiento, les permite vivir a temperaturas inferiores a 0ºC durante semanas o meses.
  3. Hongos: sobreviven después de ser congelados a -50ºC.
  4. Animales: invertebrados (nematodos, escarabajos, larvas) y vertebrados (ranas, tortugas, salamandra siberiana, ardilla de la tierra del ártico).

 

Técnicas de Preservación

Cada reducción de 10ºC en la temperatura va acompañado del 50% en consumo de oxígeno.

Los principales problemas que necesitan soluciones especiales son:

  • Contrarrestar la acidosis
  • Depresión de la actividad de la bomba de sodiopotasio
  • Aumento de la actividad celular del calcio
  • Reducir daños causados por: radicales libres
  • Impedir edema
  • Compensar la pérdida de ATP

La criopreservación de células, se guía por la “Hipótesis de dos factores” del americano criobiólogo Peter Mazur: “el enfriamiento demasiado rápido mata a las células por la formación de hielo intracelular y excisamente lento, ya sea por electrolito toxicidad o mecánico”.

Se usan crioprotectores, como el DMSO (dimetilsulfóxido) y glicerol, se utilizan para proteger las células. Los criobiólogos intentan mejorar la concentración de crioportector (reduciendo su toxicidad, la formación de hielo y velocidad de enfriamiento).

 

Criobiología en humanos

En 1773 Benjamín Franklin en una carta decía que se podría vivir en estado suspendido durante siglos.

La palabra criónica fue inventada por Karl Werner en 1965 junto con Curtis Henderson  y  Saul Kent cuando fundaron la Cryonics Society de Nueva York (CSNY).

La criopreservación de personas o grandes animales no es reversible con la tecnología actual, y por ley solo puede llevarse a cabo en humanos después de que se produzca la muerte legal, con la expectativa de que en un futuro los estados de muerte clínica sean reversibles.

El problema es:

  • como hacer que los tejidos soporten el estado criogénico sin que se deterioren, al estar los tejidos compuestos por agua, y todos sabemos que al enfriarse se expande formando cristales que rompen el tejido

 

  • como sacar del estado de la hibernación.

 

La proporción entre hombres y mujeres que eligen la criogénesis es de tres a uno. Principalmente ingenieros de software. Hay doscientas personas congeladas,y dos mil que han firmado los contratos. A los fallecidos y preservados a baja temperatura, las empresas de criogénesis no les llaman “clientes”, les llaman “pacientes”.

La formación de hielo daña las células y estructuras celulares, como decíamos anteriormente se hace intento de perfusión del cuerpo con crioprotectores químicos (glicerol) que inhibe la formación de cristales de hielo.

Greg Fahy y Brian Wowk, del Twenty-First Century Medicine, desarrollaron mejoras en criopreservación, mejorando la viabilidad de vitrificación .  La vitrificación preserva los tejidos en estado vítreo en lugar de en estado congelado, en el vidrio, las moléculas no se reconfiguran en gruesos cristales cuando se enfrían, formando un “sólido líquido” mientras la temperatura cae por debajo de la temperatura de transición vítrea. Para la vitrificación el Cryonics Institute (CI) utiliza una solución desarrollada por el Dr. Yuri Pichugin. El CI ha desarrollado cápsulas de enfriamiento controladas por ordenador para asegurar que el enfriamiento es rápido por encima de la Temperatura de transición vítrea y lento por debajo de esa temperatura, para reducir fracturas debidas a tensión térmica.

La privación de oxígeno y nutrientes hace que las células, tejidos y órganos se deterioren, si pasa demasiado tiempo por ejemplo después de parar el corazón, se pueden producir más daños cuando vuelve el oxígeno por estrés oxidativo (reperfusión). Así los crionicistas tratan de minimizar el daño por isquemia y reperfusión con la ayuda de cardiopulmonar, enfriando tan pronto como sea posible tras la declaración de muerte. Se administran agentes anticoagulantes como heparina y antioxidantes.

Tecnologías clave son:

  • Bioingeniería avanzada
  • Nanotecnología molecular
  • Nanomedicina

La reanimación requiere la reparación de los daños producidos por:

  • Falta de oxígeno
  • Toxicidad de los crioprotectores
  • Fracturas en la tensión térmica
  • Congelación de tejidos que no se hayan vitrificado bien

Se dice que la reanimación criónica es un proceso “last-in-first.out” (los últimos serán los primeros), al mejorar los métodos de preservación con el paso del tiempo.

Compañías pioneras:

 

 

 

 

¿Se puede pesar un gas? ¿El oxígeno es importante para la vida?

Etiquetas

, , , , , , ,

Lavoisier

La persona que respondió a esto fue Antoine-Laurent de Lavoisier fue un químico, biólogo y economista francés, que nació en 1743 en París..  Y fue arrestado, juzgado por el Tribunal Revolucionario y guillotinado el 1794.

 

Fundador de la química moderna:

 

  • Demostró que una reacción, la cantidad de materia siempre es la misma al final y al comienzo de la reacción. “ley de la conservación de la materia”: la masa se conserva, la masa consumida de los reactivos es igual a la masa obtenida de los productos.

 

  • Investigó la composición del agua y denominó a sus componentes: oxígeno e hidrógeno.

 

  • Examinó la naturaleza de la combustión: combinación de una sustancia con oxígeno, refutando la teoría del flogisto. La calcinación de un material no era la pérdida del misterioso flogisto, sino la ganancia de algo muy material: una parte del aire. Despertó el interés de Lavoisier por la combustión, porque trabajaba en un ensayo sobre la mejora de las técnicas del alumbrado público en París.

 

  • Revelando el papel del oxígeno en la respiración de los animales y las plantas.

Explicó el intercambio de gases en los pulmones. El aire inhalado se transformaba en el interior y era expulsado del mismo modo que el “aire fijo” de Black, o, lo que era lo mismo, el dióxido de carbono según la nueva nomenclatura del químico francés. La respiración en el organismo vivo era un proceso análogo a la combustión en el mundo externo: ambos atrapaban el oxígeno y ambos expulsaban dióxido de carbono y agua. Fue Lavoisier quien estableció que el oxígeno es indispensable para la vida.

 

  • En el “Tratado elemental de química” (1789), aclaró el concepto de elemento como sustancia simple que no se puede dividir por ningún análisis químico conocido, y elaboró la teoría de la formación de los elementos a través de los elementos.

 

  • Destacó por sus estudios de los procesos vegetales que se relacionaban con los intercambios gaseosos cuando los animales respiran.

 

  • Presentó junto con B. Guyton de Moreveau, Claude Louis Bertholiet, y Antoine-Francois de Fourcroy, la nomenclatura a la Academia en 1787.

 

Los alquimistas de la Edad Media pensaban que el aire es la única sustancia invisible,  Jan Baptista van Helmont, era médico y alquimista, estudiando como los gases que emanaban al echar caliza sobre vinagre apagaban la llama de una vela, se dio cuenta que el aire era sólo un ejemplo de un grupo de sustancias similares. Van Helmont conocía el mito griego de que la materia tenue en su origen llenaba todo el espacio y llamaban a esta materia: “caos”. Y se dio cuenta que el aire era sólo uno de tantos gases, el gas que apagaba la llama era el dióxido de carbono. El inglés Stephen Hales ideó un método para atrapar ese gas: las burbujas se formaban en un matraz que salían por un tubo acodado que se conducía hasta la boca de otro matraz en posición invertida y lleno de agua. Las burbujas subían por el segundo matraz desplazando al agua, tenía un matraz así lleno de un gas determinado. Joseph Priestley, en 1770 sustituyó el agua por mercurio, como los gases no se disuelven en mercurio recogió el dióxido de carbono, recogió también amoníaco, cloruro de hidrógeno , dióxido de azufre y descubrió el oxígeno.

 

El estudio de la respiración, combustión y oxidación, no lleva a comprender como el aire está formado por  una mezcla de elementos como descubrió Lavoisier. El oxígeno es fundamental para la vida, si se interrumpe más de cuatro minutos el cerebro sufre un daño irreparable. El oxígeno pasa a través de las paredes celulares de los pulmones a la sangre, donde se combina con la hemoglobina en los glóbulos rojos y se transporta por todo el cuerpo con el bombeo del corazón.

 

Biografía de Lavoisier

Historia de la química de los gases por Asimov

http://www.librosmaravillosos.com/brevehistoriaquimica/capitulo04.html