Livingstone el Doctor que se hizo aventurero


, , , ,

livingstone comic

El Dr. Livingstone (1813-1873) procede de una familia humilde de escoceses, recorrió más de 47.000 kilómetros; el imperio británico, vivía en esos momentos una expansión. Tuvo una infancia difícil trabajando en una fábrica a los diez años doce horas al día, para acabar siendo un héroe nacional.

Logró matricularse en Charing Cross Hospital Medicar School de 1838-40. Mientras hacía sus estudios de medicina, entró en la Sociedad Misionera Londinense como misionero en entrenamiento.




En 1840 fue enviado de misión a África, tenía que haber ido a China, pero estalló la guerra del Opio. Uno de los mayores exploradores: desarrolló la cartografía africana y realizó informes de botánica, geología y zoología. También luchó contra la esclavitud desde un punto de vista cristiano.

En 1848 inicia su primera expedición, fue de los primeros europeos en atravesar el desierto Kalahari, descubrió el lago Ngami y llegó al río Zambeze.

Entre 1852 y 1856 emprendió una segunda expedición para encontrar rutas comerciales y materias primas. Inició un viaje desde el océano Atlántico hasta el Índico. Descubrió en 1855 las cataratas Victoria.

Durante la tercera expedición buscó las fuentes del Nilo, encontrando la cabecera del río Congo.

En 1865 la Royal Geographical Society le encarga buscar el nacimiento del Nilo, esta nueva expedición se inició en marzo de 1866.

Falleció en 1873, a causa de la malaria y de una hemorragia interna producida por disentería. Fue enterrado en la Abadía de Westminster.


Narró sus viajes por el continente africano en “Viajes y exploraciones en el África del Sur”.




Livingstone, David; “Viajes y exploraciones en el África del Sur”
Ed. Del Viento. La Coruña. 2008

Desborough Cooley, William; Livingstone, David
“Dr. Livingstone and the Royal Geographical Society”
British Library, Historical Print Editions, 2011


Richard, Burton; “Las Montañas de La Luna, (en busca de las Fuentes del Nilo)
Ed. Valdemar, 2011



Links relacionados:


Livingstone, Universidad de Glasgow


• Livingstone, RTVE


Livingstone, National Geographyc


Holidays: charging the batteries


, , , ,


The holidays are here, a time to share with family and friends, practice our hobbies and charge the batteries for work. This period of rest is fundamental for health and performance: the more and better rest better performance.


They emerge on June 7, 1936 when the French government of the Front Populaire, led by Leon Blum, signed social rights of the working class “Matignon Agreements“:
• Trade union rights
• 40-hour work day
• First paid holidays

The Popular Front of France, was a coalition of parties of left formed in 1935 and that governed until 1938.
At the beginning there were two weeks, in the 60s “tourism” was extended, reaching 850 million in 2006.
The law establishes that it will be set by common agreement between employer and employee, in accordance with the provisions of collective agreements

They have “vacations” a beneficial effect on health: they usually arrive renewed, healthy and with a lot of energy; after enjoying with family and leisure. We recharge our battery of “emotional energy”:

• Body sensations
• Cognitive
• Emotions

With which we are responding to the constant stimuli that come to us every day.



Robert E. Thayer establishes in his work “The Biopsychology of Mood and Arousal“, a relationship between energy and tension, establishes the relationship between circadian rhythms, exercise, nutrition, sleep, stress and cognition.

Four types of basic energy states:
• Tense energy
• Peaceful energy
• Tense tiredness
• Calm tiredness
The healthiest is: calm energy and quiet tiredness



Jessica de Bloom, a psychology researcher at the Radboud University in the Netherlands, did a study with employees, before, during and several weeks after the holidays, controlling 5 “control” indicators; “Holiday travel, staycations, and subjective wellbeing
• Health condition
• Mood
• Stress
• Power level
• Satisfaction

After the first week the effect begins to disappear, and after two weeks we feel tired as before. However establishes that it is more beneficial holidays for the worker to stay at home, returned renewed.


Christian Jarrett, of the British Psychological Society, in his book “The Rough Guide to Psychology” establishes some tips reflecting on the “vacations”:


• Have more breaks during the year, even if they are shorter, better than a long one, after 10 days the effects are similar.
• Take advantage of weekends
• Keep activities that have been rewarding for us during the holidays the rest of the year: reading, painting, listening to music, being with friends, having breakfast with family
• Have realistic expectations with vacations and be flexible
• Being a few days after finished at home to adapt
• Exercise, eat healthy, sleep well and disconnect from the clock and computer



Thayer R.E.; “The Biopsychology of Mood and Arousal”. New York: Oxford University Press; 1989


• Jessica de Bloom; “Holiday travel, staycations, and subjective wellbeing. Radboud University”. ; 2017


• Christian Jarrett; “The Rough Guide to Psycology”; APA Publications, Rough Guides; 2011



Factor IX-Padua: gene therapy and hemophilia


, , , , , , ,


Hemophilia is a Mendelian disease (which is inherited by the mutation of a single gene) on the X chromosome, the disease is transmitted as a sex-linked character, occurs mainly in males.
It is a recessive genetic disease that prevents the proper coagulation of blood. As a result, the wounds of those affected bleed for a longer period of time, leading to hemorrhages both externally and internally.


The mechanism of “coagulation” responsible for the formation of fibrin (produces the definitive clot of lax aggregate of platelets) involves a series of reactions in “cascade”, accepting a numerical system for the different coagulating factors.


There are several types:


Hemophilia A: when there is a deficiency of coagulation factor VIII (glycoprotein), 1 person per 10000 males, plays a fundamental role in the transformation of prothrombin into thrombin intrinsic pathway.


Hemophilia B: deficit in coagulation factor IX (beta antihemophilic factor), 1 person for every 32,000 males, stimulates factor X.


Hemophilia C: deficiency in the clotting agent XI (plasma thromboplastin), 1 person per 15,000, stimulates factor IX.


There is currently no curative treatment available (with the exception of a liver transplant), the hemorrhagic tendency can be corrected by intravenously administering the missing coagulation factor, factor VIII or IX.

In recent years, the development of genetic engineering has made it possible to start a new era in the treatment of the disease. It consists in the introduction of genes in the patient’s determined cells that are able to combine with the existing genetic material, providing the missing information to make the deficient protein that causes the disease.


Researchers at Children’s Hospital of Philadelphia (USA) seem to have found a way to do it. The study published in the journal “The New England Journal of Medicine” (December 7, 2017) presented by Dr. Lindsey A. George, assistant physician of the Hematology Division principal investigator of the trial: 10 patients treated in the study experienced a sustained clinical benefit after a single infusion, in this case adults with hemophilia B can synthesize coagulation factor IX in a safe way. The study carried out is of the so-called “phase I / II”.


They used the “factor IX-Padua“, a coagulation factor discovered in 2009 and produced naturally by members of a family in the Italian city of Padua, which has a coagulation capacity up to 10 times higher than factor IX “Normal”, the goal of the new therapy was to “introduce” the gene that codes for “factor IX-Padua” in patients with hemophilia B so that they could synthesize it by themselves. The authors used as a vector an adeno-associated virus (AAV) that carried the gene responsible for the expression. The 10 treated adult males maintained coagulation factor levels close to 33%, enough to eradicate most episodes of bleeding. After the 78 weeks of study, the levels of the coagulation factor remained stable.


In parallel Spark Therapeutics and Pfizer on December 20, 2017 announced the preliminary data of a phase 1/2 clinical trial conducted with a gene therapy for hemophilia B. Published in the “New England Journal of Medicine” on July 25, 2017: led by Dr. Katherine A. High president and director of research and development of Spark Therapeutics and co-author of the article, in this open, non-randomized, multicenter clinical trial, 10 adult male patients receive an infusion of SPK-9001, the annual bleeding rate (TSA) decreased by 97%, after a cumulative follow-up period of 492 weeks of observation factor IX was 34% of normal., they could have the potential to safely maintain the level of coagulant activity.


In July, Pfizer initiated an open-label, multicenter phase III study (NCT03587116) with experimental gene therapy (elaparvovec fidanacogen) to evaluate the efficacy and safety of the current treatment for factor IX replacement.




AAV adeno-associated viruses: viruses similar to those that cause colds, which have a very small genome, the great advantage is that they have the ability to integrate their genome into non-dividing cells, used as a vector to introduce the gene.

Multicenter study: it is carried out in more than one medical institution

Non-randomized study: participants are not randomly assigned.

Open study: both the researcher and the patient know the identity of the drugs used.

Phase I study: first studies involving humans, usually of small dimensions. The way to administer the drug and the highest dose that can be administered without risk is studied.

Phase II study: the effectiveness of the new treatment is monitored, it is observed if any benefit occurs.

Phase III study: they compare safety and effectiveness of the new treatment with the current reference treatment, they are large, they are carried out in several places.

Timothy M.Cox & John Sinclair; “Molecular Biology in Medicine”, Ed. Blackwell Science, 1997


Valder Arruda & Ben J. Samelson-Jones; “Factor IX Padua: From Biochemistry to Gene Therapy”; Blood; 2016
• Lindsey A. George et al.; “Hemophilia B Gene Therapy with a High-Specific-ActivityFactor IX Variant; The New Journal of Medicine”;; December 7, 2017


• Clinical Trial NCT03587116

Clinical Trials. gov; July 2018

FDAAA Trials Tracker; July 2018

“Unicorn” a new tool against Ebola


, , , , , ,


Extremely effective agents, capable of neutralizing all known varieties of Ebola virus:
• Sudan
• Zaire
• Bundibugyo


Disadvantages are the variability and capacity of these viruses to hide the most vulnerable areas of their envelope and avoid being recognized and neutralized by antibodies.


A new therapeutic strategy against the disease: the modification of the virus envelope will allow introducing a greater production of these antibodies.
The study has been coordinated by Rafael Delgado and a group of researchers, the Microbiology Service and the Research Institute of the University Hospital 12 de October i + 12, have also collaborated the Infectious Diseases Unit of the Hospital La Paz and the Center scientist National Biotechnology (CNB-CSIC) Juan García Arriaza, have shown that the discovered antibodies can access these recondite areas if the envelope of the virus is modified before to remove those protections and expose the critical regions inside.

That type of antibodies, known as “Unicorn” because of the rarity in number, is detected in samples from patients who have overcome the infection. It is a natural defense that the survivors of this deadly disease have developed. The finding opens the door to a new vaccine.

Ebola is a filiform (elongated) virus that encloses, through a protein envelope, a fiber of genetic material called RNA. It is responsible for the disease also known as hemorrhagic fever and it is fatal in 80-90% of cases, five different strains are known.

The results of this research have been published in the journal “The Journal of Infections Disease”, it is a study have showed low neutralizing activity against full-length GPs o SUDV, BDBV, RESTV, and EBOV variants Mayinga and Kikwit.
It is not clear whether survivors are protected against homologous or heterologous ebolavirus.

Ebolavirus exhibits a complex process of cellular interaction and entry before actual fusion is produced in the late endosomal compartment. During the process of ebolavirus entry, the cleavage of the virion-associated glycoprotein (GP) by host cell cathepsins removes the glycan cap and mucin-like domains (MLDs), producing another, functionally distinct form of GP (GPcl). The cleavage of GP is thought to expose the receptor-binding site and, upon interaction with the late endosomal receptor NPC-1, mediates fusion of viral and cellular membranes. It has been previously proposed that Abs against MLD and the glycan cap are generally nonneutralizing, most likely because they are removed together with their epitopes from viral particles once endocytosis occurs. On the other hand, a number of Nabs were shown to remain attached during GP enzymatic processing because they were positioned at sites where they could prevent rearrangements necessary for viral fusion.

The 6D6 antibody was shown to successfully prevent cellular entry in vitro by isolates from all Ebolavirus species and to protect against virus infection in a mouse model.
They are pleomorphic viruses (of variable morphology).


The genome of the virus consists of a single molecule of linear single-stranded RNA of negative polarity (19.1 kb). The nucleotide is made up of two types of proteins: the NP protein, whose function is structural and the L protein. The capsid consists of several proteins: protein P, VP 30 (protein that allows it to unfold inside a host cell), VP35 , VP24 and VP40. The VP24 proteins together with VP40 form a matrix that holds the nucleoid together with the capsid (viral nucleocapsid).





Luczkowiak J, Lasala F, Mora-Rillo M, Arribs JR, Delgado R; “Broad Neutralizing Activity Against Ebolaviruses Lacking the Mucin-Like Domain in Convalescent Plasma Specimens From Patients With Ebola Virus Disease”; The Journal of Infections Disease; 2018 Jun 25


NDMA (Nitrosodimetilamine)


, , , , , , ,


It is a toxic chemical compound related to affected medications.
N- nitrosodimetilamine is a member of a chemical class, the N-nitrosoamines, which are suppected carcinogens. It is toxic to the liver and other organs, and is a human carcinogen.

NDMA was first detected in groundwaters of Northern California in 1998. Is a semi-volatile organic chemical and has the molecular formula O=N-N (CH3)2. Yellow in color, and it has little or no taste and odor. Is soluble in water (3.978 mg/L) and is not likely to bioaccumulate, biodegradable, absorb to particulate water or volatilize. Is a semi-volatile organic chemical produced as by-product of several industrial processes and present at very low levels.

NDMA is formed involuntarily during several manufacturing processes, in many industrial areas and in the air, water and soil, as a consequence of reactions with other chemical substances called “alkylamines”. Alkylamines are compounds that occur naturally or can be manufactured.

NDMA is found in the diet:
• Meat and cured meat products
• Fish and fish products
• Beer
• Milk
• Cheese
• Soybean oil
• Canned fruit
• Apple Brandy
• Tobacco smoke
It is however unlikely to bioaccumulate, in the body NDMA is formed when acidic conditions in the stomach catalyze the reaction between nitrite and dimethylamine (DMA).
NDMA occurrence in drinking water may result from industrial groundwater contamination (rocket fuel), from the chlorination/chloramination of cationic polymers, from the use of ion exchange resines, and as a chlorination/ chloramination by product.

In industrial processes:
• manufacture of rubber tires
• leather tanning
• production of pesticides
• fish processing


The EPA IRIS classification of NDMA is B2, meaning that it can be reasonably anticipated to be a human carcinogen based on animal studies, however inadequate human data exist.
The unit risk factor: the maximum admissible concentration of NDMA:
• in drinking water in lakes and streams of water is 7ng L-1, 5-50 ppm., 0.00069 ppb.

• in air 16 parts per million (ppm)

• in foods 5-100 (ppm)




• ATSDR: Agency for Toxic Substances & Disease Registry


• SFWATER.ORG: Water Quality


• NIOSH: The National Institute for Occupational Safety and Health


• AEMPS: Agencia Española de Medicamentos y Productos Sanitarios


• Wikipedia: N-nitrosodimetilamine


• International Agency for Research on Cancer


• U.S. Environmental Protection Agency


• Colin Baird
“Quimica Ambiental” Ed. Reverte, University of Western Ontario, 2ª ed. 2001








Didáctica de las Ciencias


, , , , , , , , , , , , , ,


En el siglo XXI las personas necesitan adquirir aptitudes y conocimientos científicos para sobrevivir en un mundo tan cambiante: globalización, internet, medio ambiente, migraciones, nuevas tecnologías que nos rodean en la vida diaria (automóvil, electrodomésticos, en el trabajo, en la escuela, en las comunicaciones). Que difieren mucho de las de nuestros padres y de las que vivirán nuestros hijos.

La Universidad de Harvard lleva un siglo trabajando el aprendizaje con el método “del caso” y las Web 2.0 permiten que el usuario se relacione y colabore con otros usuarios, sin importar la distancia ni el momento, estamos en el seno de una comunidad virtual donde también surgen comunidades de alumnos y especialistas. Pasado y presente se unen para avanzar en el conocimiento de las ciencias.

El proceso del aprendizaje consta de elementos: un método, unos recursos materiales y una actividad que los integra.
Una metodología: que va a adaptar el conocimiento a la edad de los alumnos, la materia a enseñar; así hablamos de “metodología colaborativa”, “metodología inductiva” o combinación de ambas.
Unos recursos: elementos materiales necesarios (mobiliario, espacio físico, hardware, software, pizarra, rotuladores, apps, papel)
• Una actividad integradora: el docente con los alumnos en el aula, una actividad concreta en un momento dado.

El método del caso, es el estudio de una situación concreta para aprender o mejorar en un campo del conocimiento. Se originó en 1914 en la Universidad de Harvard en la Escuela de Derecho: tomar decisiones, fundamentar resoluciones y valorar actuaciones.
El método del caso comprende:
• descripción narrativa
• grupo de observaciones
• situación de la vida real, incidente o suceso
• posibilidad de distintas opciones o soluciones facilitando el pensamiento divergente

Los buenos casos tienen que tener las siguientes características:
• fomentar la participación de los estudiantes a través de la investigación
• promover el estudio minucioso del caso en toda su complejidad
• evitar respuestas simplistas y poco elaboradas
• aumentar la disonancia de alternativas y visiones del problema

fase preliminar: lectura y estudio del caso
• fase expresión de opiniones y juicios: reflexión individual
• fase de contraste: análisis común de los datos analizados
fase de reflexión teórica: formulación de conceptos teóricos.


En 1967, Gagné hace un análisis en el curso “Science- A Process Approach (SAPA)” una aproximación al proceso, relativo a los procesos de la ciencia del aprendizaje. Estructura la enseñanza y desarrolla las competencias de los procesos de los alumnos en diferentes situaciones.

A finales de la década de 1970 y comienzos de 1980, en la Universidad de California en Irvine, los lingüistas Stephen Krashen y Tracy Terrell, establecen el Natural Approach, o enfoque natural de aprendizaje, publicaron su método en el libro “The Natural Approach” (1983), publicado en Pergammon Press, ponen cinco hipótesis:
• Hipótesis del aprendizaje/adquisición: el aprendizaje es resultado del estudio y la adquisición es natural.
Hipótesis del monitor: el aprendizaje consciente actúa como monitor nunca como iniciador
Hipótesis del orden natural: la adquisición se realiza en un orden predecible
Hipótesis del input: un elemento nuevo o “input” aumenta la adquisición.
Hipótesis del filtro activo: la motivación, la autoestima o la ansiedad afectan a la adquisición.


Robin Millar de la Universidad de York, UK en el Departamento de Educación, establece también un Natural Approach en la didáctica de las ciencias en el enfoque científico de la investigación o de un “método científico” general. Ve la necesidad de hacer a los alumnos más “expertos” en:
• La selección de las cuestiones productivas para una investigación
• Recolección de datos, planificar las observaciones y medidas (precisión y validez)
• Análisis e interpretación de los datos.
• Evaluar la calidad de las pruebas para establecer después una conclusión.

Millar en 1990 propone un modelo, en el cual la comprensión procedimental está dividida en tres categorías:
Las competencias cognitivas generales: observación, clasificación.
Técnicas prácticas: utilizar instrumentos de medidas variadas
• Tácticas de investigación: reproducir medidas y mejorar la fiabilidad


En 1994 Millar propone el “Proyecto PACKS” sobre la interpretación de los dones sobre el rendimiento de los alumnos relativos a las tareas de la investigación:
Conceptúa la investigación en un modelo simple, que vincula la comprensión con las diferentes etapas del desarrollo de una investigación:
1. Tarea dada
Comprensión del contenido científico: naturaleza y objetivo de la investigación científica.
2. Tarea interpretada
Capacidad de manipulación, habilidad de usar material y aparatos de medida
3. Observaciones y medidas
Comprensión de la tarea de investigación, sobre su interpretación
4. Conclusión establecida
Comprensión de las pruebas empíricas: su naturaleza y criterios para evaluarlos (errores y fiabilidad de los resultados).
5. Comentarios evaluados sobre la conclusión.


Millar establece que la ciencia está ligada a la investigación, pero que en la “comprensión” también son importantes:
• Comprensión clara del objetivo de la investigación
• Comprensión de la idea de una variable y del control de las variables en las experiencias variadas
• Comprensión del problema relativo a la recopilación de resultados válidos y confiables, y la manera de evaluar la validez y confiabilidad de los resultados recabados.



En 1995, Gott y Duggan establecen en el Reino Unido los trabajos de investigación APU (Assessment of Performance Unit, APU) sobre el rendimiento de los alumnos llevadas a cabo en el currículo nacional por la Unidad de Evaluación del Rendimiento. Aportan que:
• los alumnos encuentran más complejas las tareas que contienen variables continuas que las que implican variables categoriales (comparaciones)
• el rendimiento está influenciado por el contenido de la tarea de investigación y por el contexto en el cual fue concebida (cotidiano o laboratorio).




• UNESCO. Investigación y Prospectiva en Investigación


Robin Millar, “Comprensión de los procesos de investigación científica en los alumnos”, (Proyecto PACKS) University of York, UK. 1994


Gott y Duggan,Investigación APU”, 1995


Robert M. Gagné, “Learning and Instructional Sequence” “Approach SAPA”. Florida State University. Sage Journals. 1967



• Leda Stott, Xosé Ramil, , “El método del caso”, Universidad Politécnica de Madrid, 2014


Health, J, “Teaching and Writing Case Studies: A practical guide”, ECCH, 2002


Links relacionados:

Robin Millar. University of York.

Psychology Rice University


El método científico


, , , , , , ,

El método científico

Aplicando el método científico a un experimento, es posible demostrar que una suposición que lo explica es correcta o no, lo que permite llegar a una conclusión y establecer una teoría.


A lo largo de la historia René Descartes defendió “el inductivismo” que empezó a tenerse en cuenta desde Isaac Newton, también ha sido importante el método “hipotético-deductivo” que surgió a principios del siglo XIX.


Los primeros griegos con la escuela presocrática se niegan a aceptar las explicaciones sobrenaturales, religiosas o mitológicas de los fenómenos naturales. Tales de Mileto fue el primero que proclama que todo suceso tiene una causa natural.


Aristóteles introdujo el “empirismo”: las verdades universales pueden ser conocidas a partir de cosas particulares a través de la inducción. La herramienta utilizada por Aristóteles era el razonamiento deductivo en forma de silogismos. Los científicos podían deducir verdades universales a partir de las ya establecidas.

Durante la Edad Media se combina con el mundo islámico la teoría y la práctica, ya que los estudiosos de las ciencias eran artesanos. Los científicos musulmanes utilizaron la experimentación y la cuantificación, surgiendo los métodos científicos así a principios del siglo XI.


Posteriormente tanto Bacon como Descartes proporcionaron una base sólida para evitar que el pensamiento científico llegara  a falsas conclusiones a través de la mente o los sentidos.  Bacon establecía que los fundamentos eran empíricos, mientras que Descartes proporcionó una fundamentación metafísica del conocimiento.


Roger Bacon describe un ciclo repetitivo de observación, hipótesis, experimentación y la necesidad de una verificación independiente.


En 1619 René Descartes, científico y filósofo,  en su obra “Reglas para la dirección de la mente” establece principios rectores para la investigación científica, para terminar con el sistema aristotélico. En 1637 escribe su tratado “Discurso del método”, se caracteriza por su simplicidad, basado en las matemáticas, establece cuatro preceptos:

  1. No admitir nada que no sea absolutamente evidente.
  2. Dividir cada problema en tantos problemas particulares como convenga para resolverlos mejor.
  3. Dirigir por orden los pensamientos yendo de lo más simple a lo más complejo.
  4. Enumerar completamente los datos del problema y pasar revista a cada uno de los elementos de su solución para asegurarse de que se ha resuelto correctamente.


Isaac Newton rechaza las ideas racionales de Descartes y se inclina al enfoque empírico de Bacon, describió cuatro “reglas del razonamiento en los Principia”:

  1. No debemos admitir más causas de cosas naturales que las que son verdaderas y suficientes para explicar sus apariencias.
  2. Por lo tanto, a los mismos efectos naturales debemos asignarles, hasta donde sea posible, las mismas causas.
  3. Aquellas propiedades de los cuerpos que no puedan aumentarse o disminuirse gradualmente, y que existen en todos los cuerpos que podamos examinar serán consideradas como propiedades universales de la totalidad de los cuerpos.
  4. En la filosofía experimental debemos aceptar las proposiciones derivadas por inducción general de los fenómenos como exactas o muy probablemente ciertas, a pesar de las hipótesis contrarias que pudieran imaginarse, hasta el tiempo en que ocurran otros fenómenos, con los que puedan hacerse más exactas o aceptar excepciones.


A partir de la mitad del siglo XX, hay grandes mejoras en el entendimiento del método científico con Karl Popper, publicó “La lógica de la investigación científica”, según Popper, las teorías científicas deben realizar predicciones que pueden ser aprobadas, y rechazadas si sus predicciones se demuestra que no son correctas, argumentó que la ciencia avanza más con el razonamiento deductivo, conocido como racionalismo crítico.


Principales características del método científico:

Tiene una base empírica: es un proceso continuo de contrastación con los hechos de la naturaleza al que deben someterse sus enunciados o hipótesis.

Diversidad de formas: puede ser cualitativo o cuantitativo.

Sistematicidad: debe ser sistemático y controlado.

Fiabilidad o replicabilidad: debe ser consistente y replicables sus métodos, condiciones y resultados.

Validez: exactitud de la interpretabilidad de los resultados (validez interna), como generalización de las conclusiones (validez externa).

Flexibilidad: se adapta al objetivo de estudio de las diversas ciencias.



Principales formas del método científico:

Método inductivo: sólo se puede llegar al conocimiento a través de la experiencia.

Método deductivo: parte de un conjunto de axiomas o principios indemostrables a los que se llega por procesos de razonamiento que no se apoyan en observaciones empíricas y por establecer un conjunto de reglas de procedimiento a partir de las cuales se realizan deducciones lógicas aplicables a los datos reales.

Método hipotético-deductivo: utiliza de forma combinada la inducción y la deducción.

Las fases son:

  1. Planteamiento del problema u objeto de estudio y definición de variables.
  2. Formulación de hipótesis contrastables.
  3. Establecimiento de un procedimiento o plan de recogida de datos.
  4. Análisis de datos.
  5. Interpretación de los resultados: discusión y conclusiones.
  6. Elaboración del informe de investigación o comunicación de resultados.

Estas fases se corresponden con tres niveles:

  1. Nivel teórico conceptual se incluyen las fases del planteamiento del problema y de la formulación de hipótesis contrastables.
  2. Nivel técnico metodológico se vinculan planteamientos teóricos con la realidad empírica, se seleccionan los métodos o procedimientos para la recogida de datos relevantes a las hipótesis.
  3. Nivel estadístico analítico lo constituye el tratamiento estadístico de los datos obtenidos mediante el diseño correspondiente.





  • René Descartes, “Discurso del método”; Ed. Edaf; 1982
  • Sofía Fontes de Gracia et al; “Fundamentos de investigación Psicológica”; Uned; 2010
  • Peter Achinstein; “Science Rules: A Historical Introduction to Scientific Methods”; Ed. The Johns Hopkins University Press; 2004




Links relacionados:









Arrhenius: electroquímica


, , , , , , , ,


Las teorías de Arrhenius son el primer paso para dar una interpretación molecular de los procesos que ocurren en una reacción química.


En su época se reconocían como  bases cuando en una disolución acuosa tenían determinadas características: si la base está bien disuelta la mezcla tiene un sabor amargo; al poner en contacto el papel tornasol con la disolución éste cambia su color de rojo a azul; al tacto éstas sustancias son resbaladizas y jabonosas; y cuando reaccionan con los ácidos dan como productos agua y sales.

Svante August Arrhenius nace en Wijk (1859) Suecia. Estudia en la Universidad de Upsala, donde estudió matemáticas, química y física. Se doctoró en 1884, en su tesis de Licenciatura sienta las bases de la “teoría de la disociación electrolítica”, que más tarde confirmó experimentalmente. De cómo los electrolitos se disociaban en sus iones cuando se encontraban en disolución y la fuerza relativa e dichos iones según fuesen ácidos o bases.
Amplia estudios en Riga, Würxburg, Graz, Amsterdam, Leipzig… Su labor docente se desarrolla en Uppsalla y Estocolmo. Ocupa cargos como profesor de física en la Universidad donde cursó estudios universitarios, alcanzando el grado de catedrático y convirtiéndose en rector. Trabajó en el Real Instituto de Tecnología de Estocolmo y fue director del Instituto Nobel de fisicoquímica.

Recibe el Premio Nobel de Química en 1903 el mismo año que los esposos Curie reciben el Premio Nobel de Física. Muere en el año 1927.
En 1889 publica su trabajo: “sobe la disociación de sustancias en soluciones acuosas”. Sus trabajos fueron sobre diversos campos de la ciencia: poder de difusión de las soluciones, conductividad eléctrica, influencia de la Luna en el estado eléctrico de la Tierra, influencia de los iones y electricidad atmosférica en la salud, el efecto invernadero producido por la contaminación de gases nocivos como en dióxido de carbono, desarrolla la teoría cosmogónica o de la panspermia que explica el nacimiento de la vida en la Tierra, gracias a las bacterias. Desarrolló “la ecuación de Arrhenius”, que explica la relación de la temperatura con la velocidad de las reacciones. También escribió unTratado de electroquímica” (1901) y “Tratado de física cósmica” (1903). Murió en 1927 en Estocolmo.


Teoría de la disolución electrolítica
En la segunda parte de sus tesis, “Théorie chimique des electrolytes”, más teórica que la primera, Arrhenius argumentaba que se consideraba una solución de sal como una mezcla de partes “activas” (electrólitos) e “inactivas” (no electrólitos). Al diluir, el número de partes activas se incrementaba. La disolución electrolítica aumentaba con la dilución:
Todas las sales existen en solución como moléculas complejas, las cuales se descomponen parcialmente al diluirse. Con ayuda de esta representación se explican las propiedades de las sales en todas las diluciones, así como también las propiedades de todos los electrólitos en concentraciones suficientemente elevadas”.


Arrhenius proponía que los electrolitos, sustancias que en disolución permiten el paso de la corriente eléctrica, se disociaban al entrar en disolución, formando iones, en tal proporción, que el número de cargas totales de los aniones (iones con carga negativa) era igual que el número de cargas totales de los cationes (iones con carga positiva), formaban disoluciones eléctricamente neutras.
La concentración es la magnitud química y elemental en electroquímica que expresa la cantidad de un elemento o de un compuesto por unidad de volumen. En el sistema Internacional se emplea el mol/m3. A cada sustancia le corresponde un valor de solubilidad, que es la cantidad máxima de ella (soluto) que puede haber en una disolución, y depende de condiciones como la temperatura, la presión, otras sustancias disueltas o en suspensión y cuál sea la cantidad y la concentración de ellas. En química para expresar cuantitativamente la proporción entre un soluto y el disolvente en una disolución se emplean: molaridad, normalidad, molalidad, formalidad, porcentaje en peso, porcentaje en volumen, fracción molar, partes por millón, partes por billón, partes por trillón, etc.



Teoría de ácidos y bases
Definió las sustancias ácidas como sustancias químicas que contienen hidrógeno y al ser disueltas en agua se producía una concentración de iones de hidrógeno o protones, mayor que la del agua pura. Y definió a la base como una sustancia química que al ser disuelta en agua produce iones hidroxilo OH-.


Teoría del efecto invernadero
Calculó por primera vez como el CO2 atmosférico retiene en la atmósfera la radiación infrarroja proveniente del Sol. Mediante la “Ley de Stefan-Boltzmann” formuló su Ley de efecto invernadero: si la cantidad de ácido carbónico (CO2) aumenta en progresión geométrica, el aumento de la temperatura aumentará casi en progresión aritmética.
Una duplicación del CO2 provocaría un aumento de temperatura de 5-6º.


Teoría del ion electrón
Arrhenius definió a los ácidos como sustancias del tipo HX que en solución se disocian produciendo H+ y X-, definiendo a las bases MOH, como sustancias que en solución producen M+ y OH-, y a la neutralización como el resultado de la combinación de esos iones.
La reacción de neutralización para su definición sería:
H+ + OH- —— H20 + sales
Representando por AH la fórmula de un ácido genérico, la reacción de disociación del ácido se puede escribir, de acuerdo a las ideas de Arrhenius, en la forma:
AH << A- (aq) + H+ (aq)
En los ácidos fuertes la reacción estaría desplazada hacia la derecha de modo que abundarían más los iones H+ (aq).
Generalizando los resultados de las anteriores reacciones, Arrhenius concluyó que eran bases todas aquellas sustancias capaces de dar en disolución acuosa iones OH-.


Teoría de la panspermia
Popularizó este término al desarrollar la hipótesis cosmogónica en los libros “Escritos de la física cósmica” y “El devenir de los mundos”. El Universo es una inmensa máquina térmica funcionando entre manantiales calientes (las estrellas) a los fríos (las nebulosas). Se traslada la vida o las moléculas necesarias para formar la vida de un astro a otro.


Teoría de Arrhenius

La velocidad de una reacción depende de la temperatura, de la composición. En la ecuación de Arrhenius:


Ecuación de Arrhenius


K0 : representa el factor de frecuencia
Ea : la energía de activación de la reacción

A temperatura constante cuanto mayor es la Ea, mas pequeña será la constante de velocidad y más lenta será la velocidad de reacción. Si las velocidades de reacción son rápidas, la Ea será pequeña.


Hay un nivel de energía del estado activado en la formación de los productos a partir de los reactantes, una barrera de energía que debe superarse: “Energía de Activación”.



William H. Brock; “Historia de la Química”, Editorial Alianza; 1998


Enciclopedia Británica. Svante Arrhenius.



Links relacionados:


The Nobel Prize in Chemistry 1903. Svante Arrhenius.


Uppsala University. Research|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided)&__utmv=-&__utmk=85956505







Ecología de los pastizales Mediterráneos: “La oveja bombero”


, , , , ,

ovejas bombero

Varios países en el área mediterránea están utilizando la metodología, conocida popularmente como “ovejas bombero”: actividad preventiva de incendios: comer rastrojos, hierba, plantas leñosas como el tojo o la maleza y evitar que ardan y que haya incendios manteniendo limpios los montes.
Las razas autóctonas en la cuenca del Mediterráneo:
• Francia: Rambouillet, Ille France, Lacaune
• España: Manchega, Churra, Merina, Latxa
• Italia: Sarda, Préalpes
• Grecia: Chios
• Israel: Awassi, Assaf




El promedio anual de incendios forestales en toda la cuenca del Mediterráneo (23 países) se aproxima a 50.000, la superficie anual quemada se estima en 600.000 ha. El costo total de los dispositivos de lucha contraincendios y seguridad en la región supera los 1.000 millones de dólares. Los países donde hay un gran aumento: España, Italia, Grecia, Marruecos y Turquía. Produciéndose daños económicos, ecológicos e incluso vidas humanas.

La composición de los bosques se ha estabilizado con especies vegetales que necesitan el fuego en su ciclo reproductivo: Pinares en ambas orillas del Mediterráneo.
• Pino carrasco (Pinus halepensis): España, Francia, Italia, Grecia, Turquía, Marruecos, Argelia y Túnez.
• Pino piñonero (P. pinea), pinaster (P. pinaster), laricio (P. nigra) cuenca occidental.
• Pino brutia cuenca oriental.



La mayor parte de los incendios son de origen humano (hornos de carbón vegetal, quemas, fumadores, campamentos), frente a los de origen natural (rayos, etc.…). Una causa importante son los pastores que prenden bosques y pastizales porque generan brotes para los animales. También los agricultores para deshacerse de restos de su cosecha o para ganar terreno al bosque.

Las ventajas del pastoreo:
• evita proliferación incontrolada de material combustible
• aporta carne de calidad en el ganado
• fertiliza los suelos, aumenta la biodiversidad de flora y fauna: diseminando las semillas y manteniendo el hábitat despejado, donde se refugia la fauna silvestre.
• Fijación de la población al medio rural

“Inventario Pastoral” es la recogida de información, para tomar decisiones sobre carga de zona, animales y organización del pastoreo; teniendo en cuenta el suelo, las plantas y los animales.

El grupo de trabajo sobre incendios forestales de Silva Mediterránea propone acordar con FAO programas de refuerzo en materia de prevención.




Ricardo Velez Muñoz. “Los incendios forestales en el mediterráneo: Perspectiva regional”Unasylva. Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente.1990



Daniel Alexandrian, François Esnault, Giancarlo Calbri; “Incendios forestales en el área del Mediterráneo”. FAO. Roma. 1998 “La oveja bombero, la nueva ayuda al ovino en Castilla-La Mancha”. 2018



González Rebollar, J. L. et al; “Evaluación de la capacidad sustentadora en pastos semiáridos del sudeste ibérico”, 1993 Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente



Links relacionados:

Acciones de extinción de los incendios forestales. Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente



Estadísticas de los incendios forestales. Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente



Raza Ovina Manchega. Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente ganaderas/razas/catalogo/autoctona-fomento/ovino/manchega/default.aspx



Raza Ovina Castellana. Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente



• CSIC. Instituto Pirenaico de Ecología.



• APAF-Madrid (Asociación Profesional de Agentes Forestales de la Comunidad de Madrid), vacas y cabras antiincendios



Medicina en Santa Hildegarda de Bingen: hombre, Dios y plantas.


, , , , , ,


Se educó en un monasterio benedictino, fundó una abadía, fue teóloga, filósofa, compositora musical y pionera en la medicina. Una de las mujeres más influyentes de la Baja Edad Media.

Su obra es original trata de la relación entre el hombre, Dios y el cosmos que le rodea. Tiene una visión de la enfermedad: fisiología, patología y terapéutica:
• Fisiología: estado primero del hombre en su estado puro.
• Patología: el hombre en su estado anómalo, el pecado le convierte en un ser débil y enfermo.
• Terapéutica: la cura viene de la reconciliación del hombre con Dios.
En esa época se sostenía la teoría de “los humores” (sangre, flema, bilis amarilla y bilis negra), la enfermedad es como consecuencia del desequilibrio de estos humores.



En el Medievo, la edad del oscurantismo, el arte de curar era propio de los monjes y clérigos, los hombres ilustrados que quedaban en Occidente. La medicina clásica se mantenía viva en el mundo islámico, donde médicos destacados divulgaban la obra de Galeno.
A finales del siglo VII los monjes benedictinos fundaron en Salerno un hospital cuya fama en los dos siglos siguientes supera las fronteras de Italia, convirtiéndose en punto importante de la enseñanza de la medicina. A partir del siglo IX, los manuscritos grecoárabes empezaron a llegar a Italia por la ruta de la seda. Terminaron recogidos en las bibliotecas del monasterio de Vivarium y de la abadía de Montecassino. En la Europa del siglo XI las universidades medievales son sitios destacados del saber médico. En la fundación de la escuela de Salerno, la primera de Europa entre los siglos IX y X, participaron monjes de Montecassino.


Santa Hildegarda nació en 1098 en Bermersheim, Alemania. A los ocho años, la entregaron para su formación a Jutta, de la familia de los condes de Sapnnheim. A la edad de 15 años, profesó como monja en un pequeño convento benedictino agregado al monasterio de Disibodenberg, en 1136 fue elegida abadesa. Funda en 1147 el convento de Rupertsberg, vivió en él hasta su muerte en 1179.

Entre 1151-1158 escribió su obra de medicina bajo un único título: Liber subtilitatum diversarum naturarum creaturarum (Libro sobre las propiedades naturales de las cosas creadas).



En el siglo XIII fue dividido en dos textos:
Physica (Historia Natural) (Liber simplicis medicinae, libro de la Medicina Sencilla)
Describe las propiedades útiles para el hombre de diversos animales, vegetales y minerales. Incluye fisiología, patología, sexualidad y teología.

Causae et Curae (Problemas y remedios) (Liber compositae, libro de Medicina Compleja). Fisiología o funcionamiento del cuerpo del ser humano, descripción de las enfermedades, su etiología, síntomas y de los remedios para ellas a través de sustancias curativas compuestas.

Para la santa es fundamental el régimen alimenticio y la forma de vivir para poder disfrutar de una buena salud. Guardando mesura y equilibrio en todas las facetas de la vida: comer, beber, sexualidad, reposo y movimiento. El vino y la cerveza de forma moderada, lo encuentra saludable. También nos da información de las virtudes terapéuticas de las frutas y verduras, el uso correcto de las hierbas medicinales y efectos curativos de carnes y pescados.
Trata temas tabús para la época como la sexualidad y el sistema reproductivo femenino. Describe como es engendrado el hombre, el desarrollo del embrión, las fases del crecimiento y el proceso del parto normal y patológico.

Ofrece muchas recetas de la medicina popular, a las que añade las que cultiva en el “huerto medicinal” de su monasterio. Hildegarba introduce el lúpulo en el proceso de elaboración de la cerveza, que le da un toque amargo (antes era dulce, se utilizaba el “gruit” (mezcla de hierbas aromáticas de romero, artemisa, jengibre, etc…). El agua era insalubre o de mala calidad produciendo enfermedades en la población. Con la expansión de los monasterios por Europa en el Medievo, se expande también la cerveza; mejorando la salud de la población, al tener un proceso de elaboración. Franciscanos, benedictinos y trapenses realizaban cerveza, para consumirla en la época de ayuno. Hildegarba al introducir el lúpulo (con sus propiedades bactericidas: alfa ácidos (efecto antibiótico sobre bacterias Gram +) y taninos (antibactericida láctico y acético) mantiene en buen estado la cerveza y evita muertes por consumo de agua insalubre.

También aborda las enfermedades psíquicas, entre ellas la melancolía.

Fue una mujer adelantada a su tiempo, que combinó la parte espiritual “ora et labora” (Dios) con el hombre y la acción curativa de las plantas de los huertos medicinales monacales. Es conocida como la “sibila del Rin”. El 7 de octubre de 2012 el papa Benedicto XVI le otorgó el título de doctora de la Iglesia.


Axel Kahn et al; Una historia de La Medicina, Ed. Lunwerg, 2012
Lois N. Magner, Marcel Dekker; A History of Medicine, Nueva York; Ed. CRC Press, 1992
W.F.Bynum y Roy Porter; Companion Encyclopedia of the History of Medicine, Londres, 1993.
L´Observatore Romano, Una gran intelectual, 12 de mayo de 2012
Fundación Telefónica. Mujer y Ciencia. Hildegarda von Bingen.


Links relacionados:
Universidad Complutense de Madrid. de Bingen.


Carta Apostólica para la proclamación de Doctora de la Iglesia de la Iglesia. Benedicto XVI.