¿Quién se ha llevado el queso?

Etiquetas

, , ,

Tiempos de cambios

Todos hemos leído el libro de Spencer, nada más lejos de la realidad empresarial actual en unos mercados tan cambiantes. Todos los valores que giran en torno a la empresa o al individuo: salud, dinero, reconocimiento
necesitan de una estrategia de innovación como planteamiento ante los cambios:
• Nuevos productos
• Nueva tecnología
• Mantener un crecimiento sostenido

 

Para ello es necesario:
• Promover una cultura orientada al cliente
• Equipos multidisciplinarios
• Asociar los procesos de innovación con los objetivos de la compañía

 

La innovación va a marcar la diferencia entre crecer o desaparecer. Va a producirse un estrés entre los cambios tecnológicos para adaptarse a las transformaciones radicales del entorno. Según la “teoría de la contigencia” la estructura más apropiada en una organización va a ser la que se adapte a una contingencia operativa dada.

 

Burns y Stalker proponen dos modelos:
a) Empresa rígida y jerárquica que se mueve en condiciones estables
b) Empresa fluida que se mueve en grandes cambios e innovación
El primer modelo según los autores es mecánico, el segundo orgánico.
El primer caso será dirigido por una persona, el segundo por equipos multidisciplinarios flexibles, encargados de dirigir proyectos
Además de una estrategia y estructura empresarial va a ser necesario un “proceso de aprendizaje” colectivo en las tecnologías y procesos; combinando ideas y recursos.Se van a tener que diseñar programas avanzados en Innovación:
a) Innovación en la estrategia de la empresa: impacto en la organización, el negocio y el cliente.
b) Modelos de Innovación: Intraemprendimiento, Open Innovation, Closed Innovation
c) Tecnologías Disruptivas y Organizaciones exponenciales
d) MVP (Minimum Viable Product)
e) Metodologías Complex Solving a proyectos de innovación

 

En el proceso de Innovación no basta con que surjan ideas es necesario que los nuevos productos aporten valor a los clientes. Va a ser necesario:

  • equipos buenos
  • trabajar de forma ágil (Design Thinking, Lean Start-Up, Scrum)
  • ser capaz de testar y aprender desarrollando productos y servicios que mejoren la salud y el bienestar personal.

 

Bibliografía:
Spencer Johnson; “¿Quién movió mi queso?, Ed. Urano, 1999
Burns, T. & G.M. Stalker; “The Management of Innovation”, Londres: Tavistock; 1961
Lam, A; “Alternative societal models of learning and innovation in the knowledge economy”, International Social Science Journal, 2002

Anuncios

Gauss padre de las matemáticas modernas

Etiquetas

, , ,

curva gauss

 

Junto a Arquímedes y Newton, es uno de los tres genios de la historia de las Matemáticas: teoría de números, astronomía, magnetismo, geometría y análisis.

Era el matemático más grande de los siglos XVIII y XIX, “príncipe de las matemáticas”. Completó a sus predecesores en la “teoría de números”, se dio cuenta del poco rigor de las demostraciones de los matemáticos que le precedieron. Para él la matemática es la reina de las ciencias y la aritmética es la reina de las matemáticas.

 

Gauss

Nació en 1777 en Brunswick en el seno de una familia humilde y falleció en 1855. Aprendió a leer solo. Cuando tenía doce años criticó los fundamentos de la geometría euclidiana, a los quince entendía la convergencia y probó el binomio de Newton. A los 19 años había descubierto el “teorema de los números” y la “ley de reciprocidad cuadrática”.
Se graduó en Göttinga en 1798 y al año siguiente recibió el doctorado en la Universidad de Helmstedt.

Publicó “Disquisiciones Arithmeticae” en el verano de 1801, su obra más importante, donde desarrolla resultados de la teoría de los números, incluyendo las series infinitas convergentes. Solución al problema algebraico de un polígono de “n” lados. Estudió la “teoría de los errores” y dedujo la “curva de Gauss”, la curva normal de la probabilidad.

En 1807 ocupa el cargo de director del observatorio de “Gottingen”.

Publicó su segundo libro “Theoria motus corporum coelestium in sectionibus conicis Solem ambientum” en 1809. En el primer volumen el discute ecuaciones diferenciales, orbitas elípticas y secciones cónicas. En el segundo volumen explica las orbitas de los planetas con contribuciones a la astronomía teórica.

En 1816 sus publicaciones incluyen disquisiciones generales de series infinitas, introducción de la función hipergeométrica, aproximación a la integración, discusión de estimadores estadísticos, teoría de la atracción de cuerpos esféricos.

Inventó el “heliotropo” (un instrumento para mostrar cuando el sol llegó a los trópicos y la línea equinoccial) usando espejos que reflejaban rayos del sol y un pequeño telescopio.

En los inicios de 1800 se interesó por la existencia de la “geometría Euclidiana”. La geometría euclidiana o parabólica es el estudio de las propiedades geométricas de los espacios donde se satisfacen los axiomas de Euclides de la geometría. El término euclídeo se utiliza para distinguir espacios vectoriales de los espacios “curvos”, de las geometrías no euclidianas y del espacio de la teoría de la relatividad de Einstein. Tenía un mayor interés por la geometría diferencial, publicando disquisiciones sobre la curva.

En 1832 junto con Weber investigó el “magnetismo terrestre”, mostró que solo pueden existir dos polos en el globo y la intensidad de las fuerzas magnéticas horizontales.

Descubrió con Weber las “leyes de Kirchhoff” y construyeron un telégrafo primitivo.

Estuvo de 1845 a 1851 en la Universidad de Göttingen.
Bibliografía:

• Steven G. Krantz, “The elements of Advanced Mathematics”, CRC Press, 2017

• Jagodish Mehra, Helmut Rechenberg; “The historical Development of Quantum Theory”, Springer Science & Business Media, 2000

Miguel Artola y José Manuel Sánchez Ron, “Ciencia”, Ed. España, 2017

• Wikipedia

Links relacionados:

Universidad Helmstedt
https://www.revolvy.com/page/University-of-Helmstedt

Universidad Goettingen
https://www.uni-goettingen.de/en/20693.html

Livingstone el Doctor que se hizo aventurero

Etiquetas

, , , ,

livingstone comic

El Dr. Livingstone (1813-1873) procede de una familia humilde de escoceses, recorrió más de 47.000 kilómetros; el imperio británico, vivía en esos momentos una expansión. Tuvo una infancia difícil trabajando en una fábrica a los diez años doce horas al día, para acabar siendo un héroe nacional.

 
Logró matricularse en Charing Cross Hospital Medicar School de 1838-40. Mientras hacía sus estudios de medicina, entró en la Sociedad Misionera Londinense como misionero en entrenamiento.

 

 

David_Livingstone_-1

 
En 1840 fue enviado de misión a África, tenía que haber ido a China, pero estalló la guerra del Opio. Uno de los mayores exploradores: desarrolló la cartografía africana y realizó informes de botánica, geología y zoología. También luchó contra la esclavitud desde un punto de vista cristiano.

 
En 1848 inicia su primera expedición, fue de los primeros europeos en atravesar el desierto Kalahari, descubrió el lago Ngami y llegó al río Zambeze.

 
Entre 1852 y 1856 emprendió una segunda expedición para encontrar rutas comerciales y materias primas. Inició un viaje desde el océano Atlántico hasta el Índico. Descubrió en 1855 las cataratas Victoria.

 
Durante la tercera expedición buscó las fuentes del Nilo, encontrando la cabecera del río Congo.

 
En 1865 la Royal Geographical Society le encarga buscar el nacimiento del Nilo, esta nueva expedición se inició en marzo de 1866.

 
Falleció en 1873, a causa de la malaria y de una hemorragia interna producida por disentería. Fue enterrado en la Abadía de Westminster.

 

Narró sus viajes por el continente africano en “Viajes y exploraciones en el África del Sur”.

 

 

Bibliografía:

 
Livingstone, David; “Viajes y exploraciones en el África del Sur”
Ed. Del Viento. La Coruña. 2008

 
Desborough Cooley, William; Livingstone, David
“Dr. Livingstone and the Royal Geographical Society”
British Library, Historical Print Editions, 2011

 

Richard, Burton; “Las Montañas de La Luna, (en busca de las Fuentes del Nilo)
Ed. Valdemar, 2011

 

Wikipedia

 
Links relacionados:

 

Livingstone, Universidad de Glasgow
https://www.universitystory.gla.ac.uk/biography/?id=WH0220&type=P

 

• Livingstone, RTVE
http://blog.rtve.es/somosdocumentales/2016/02/el-diario-perdido-del-dr-livingstone-este-mi%C3%A9rcoles-en-documenta2.html

 

Livingstone, National Geographyc
https://www.nationalgeographic.com.es/viajes/actualidad/bicentenario-david-livingstone_7130/1

Holidays: charging the batteries

Etiquetas

, , , ,

vacaciones

The holidays are here, a time to share with family and friends, practice our hobbies and charge the batteries for work. This period of rest is fundamental for health and performance: the more and better rest better performance.

 

They emerge on June 7, 1936 when the French government of the Front Populaire, led by Leon Blum, signed social rights of the working class “Matignon Agreements“:
• Trade union rights
• 40-hour work day
• First paid holidays

The Popular Front of France, was a coalition of parties of left formed in 1935 and that governed until 1938.
At the beginning there were two weeks, in the 60s “tourism” was extended, reaching 850 million in 2006.
The law establishes that it will be set by common agreement between employer and employee, in accordance with the provisions of collective agreements

 
They have “vacations” a beneficial effect on health: they usually arrive renewed, healthy and with a lot of energy; after enjoying with family and leisure. We recharge our battery of “emotional energy”:

• Body sensations
• Cognitive
• Emotions

With which we are responding to the constant stimuli that come to us every day.

 

 

Robert E. Thayer establishes in his work “The Biopsychology of Mood and Arousal“, a relationship between energy and tension, establishes the relationship between circadian rhythms, exercise, nutrition, sleep, stress and cognition.

Four types of basic energy states:
• Tense energy
• Peaceful energy
• Tense tiredness
• Calm tiredness
The healthiest is: calm energy and quiet tiredness

 

 

Jessica de Bloom, a psychology researcher at the Radboud University in the Netherlands, did a study with employees, before, during and several weeks after the holidays, controlling 5 “control” indicators; “Holiday travel, staycations, and subjective wellbeing
• Health condition
• Mood
• Stress
• Power level
• Satisfaction

After the first week the effect begins to disappear, and after two weeks we feel tired as before. However establishes that it is more beneficial holidays for the worker to stay at home, returned renewed.

 

Christian Jarrett, of the British Psychological Society, in his book “The Rough Guide to Psychology” establishes some tips reflecting on the “vacations”:

 

• Have more breaks during the year, even if they are shorter, better than a long one, after 10 days the effects are similar.
• Take advantage of weekends
• Keep activities that have been rewarding for us during the holidays the rest of the year: reading, painting, listening to music, being with friends, having breakfast with family
• Have realistic expectations with vacations and be flexible
• Being a few days after finished at home to adapt
• Exercise, eat healthy, sleep well and disconnect from the clock and computer

 
Bibliography:

 

Thayer R.E.; “The Biopsychology of Mood and Arousal”. New York: Oxford University Press; 1989

 

• Jessica de Bloom; “Holiday travel, staycations, and subjective wellbeing. Radboud University”. ; 2017

 

• Christian Jarrett; “The Rough Guide to Psycology”; APA Publications, Rough Guides; 2011

 

 

Factor IX-Padua: gene therapy and hemophilia

Etiquetas

, , , , , , ,

sangre

Hemophilia is a Mendelian disease (which is inherited by the mutation of a single gene) on the X chromosome, the disease is transmitted as a sex-linked character, occurs mainly in males.
It is a recessive genetic disease that prevents the proper coagulation of blood. As a result, the wounds of those affected bleed for a longer period of time, leading to hemorrhages both externally and internally.

 

The mechanism of “coagulation” responsible for the formation of fibrin (produces the definitive clot of lax aggregate of platelets) involves a series of reactions in “cascade”, accepting a numerical system for the different coagulating factors.

 

There are several types:

 

Hemophilia A: when there is a deficiency of coagulation factor VIII (glycoprotein), 1 person per 10000 males, plays a fundamental role in the transformation of prothrombin into thrombin intrinsic pathway.

 

Hemophilia B: deficit in coagulation factor IX (beta antihemophilic factor), 1 person for every 32,000 males, stimulates factor X.

 

Hemophilia C: deficiency in the clotting agent XI (plasma thromboplastin), 1 person per 15,000, stimulates factor IX.

 

There is currently no curative treatment available (with the exception of a liver transplant), the hemorrhagic tendency can be corrected by intravenously administering the missing coagulation factor, factor VIII or IX.

In recent years, the development of genetic engineering has made it possible to start a new era in the treatment of the disease. It consists in the introduction of genes in the patient’s determined cells that are able to combine with the existing genetic material, providing the missing information to make the deficient protein that causes the disease.

 

Researchers at Children’s Hospital of Philadelphia (USA) seem to have found a way to do it. The study published in the journal “The New England Journal of Medicine” (December 7, 2017) presented by Dr. Lindsey A. George, assistant physician of the Hematology Division principal investigator of the trial: 10 patients treated in the study experienced a sustained clinical benefit after a single infusion, in this case adults with hemophilia B can synthesize coagulation factor IX in a safe way. The study carried out is of the so-called “phase I / II”.

 

They used the “factor IX-Padua“, a coagulation factor discovered in 2009 and produced naturally by members of a family in the Italian city of Padua, which has a coagulation capacity up to 10 times higher than factor IX “Normal”, the goal of the new therapy was to “introduce” the gene that codes for “factor IX-Padua” in patients with hemophilia B so that they could synthesize it by themselves. The authors used as a vector an adeno-associated virus (AAV) that carried the gene responsible for the expression. The 10 treated adult males maintained coagulation factor levels close to 33%, enough to eradicate most episodes of bleeding. After the 78 weeks of study, the levels of the coagulation factor remained stable.

 

In parallel Spark Therapeutics and Pfizer on December 20, 2017 announced the preliminary data of a phase 1/2 clinical trial conducted with a gene therapy for hemophilia B. Published in the “New England Journal of Medicine” on July 25, 2017: led by Dr. Katherine A. High president and director of research and development of Spark Therapeutics and co-author of the article, in this open, non-randomized, multicenter clinical trial, 10 adult male patients receive an infusion of SPK-9001, the annual bleeding rate (TSA) decreased by 97%, after a cumulative follow-up period of 492 weeks of observation factor IX was 34% of normal., they could have the potential to safely maintain the level of coagulant activity.

 

In July, Pfizer initiated an open-label, multicenter phase III study (NCT03587116) with experimental gene therapy (elaparvovec fidanacogen) to evaluate the efficacy and safety of the current treatment for factor IX replacement.

 

Glossary:

 

AAV adeno-associated viruses: viruses similar to those that cause colds, which have a very small genome, the great advantage is that they have the ability to integrate their genome into non-dividing cells, used as a vector to introduce the gene.

Multicenter study: it is carried out in more than one medical institution

Non-randomized study: participants are not randomly assigned.

Open study: both the researcher and the patient know the identity of the drugs used.

 
Phase I study: first studies involving humans, usually of small dimensions. The way to administer the drug and the highest dose that can be administered without risk is studied.

Phase II study: the effectiveness of the new treatment is monitored, it is observed if any benefit occurs.

Phase III study: they compare safety and effectiveness of the new treatment with the current reference treatment, they are large, they are carried out in several places.

 
Bibliography:
Timothy M.Cox & John Sinclair; “Molecular Biology in Medicine”, Ed. Blackwell Science, 1997

 

Valder Arruda & Ben J. Samelson-Jones; “Factor IX Padua: From Biochemistry to Gene Therapy”; Blood; 2016
http://www.bloodjournal.org/content/128/22/SCI-9?sso-checked=true
• Lindsey A. George et al.; “Hemophilia B Gene Therapy with a High-Specific-ActivityFactor IX Variant; The New Journal of Medicine”;; December 7, 2017
https://www.researchgate.net/profile/Lindsey_George3/publication/321641368_Hemophilia_B_Gene_Therapy_with_a_High-Specific-Activity_Factor_IX_Variant/links/5a32e7bb458515afb6c04bc5/Hemophilia-B-Gene-Therapy-with-a-High-Specific-Activity-Factor-IX-Variant.pdf

 

• Clinical Trial NCT03587116

Clinical Trials. gov; July 2018
https://clinicaltrials.gov/ct2/show/NCT03587116

FDAAA Trials Tracker; July 2018
http://fdaaa.trialstracker.net/trial/NCT03587116/

“Unicorn” a new tool against Ebola

Etiquetas

, , , , , ,

ebola-ec31b80b2f_1920

Extremely effective agents, capable of neutralizing all known varieties of Ebola virus:
• Sudan
• Zaire
• Bundibugyo

 

Disadvantages are the variability and capacity of these viruses to hide the most vulnerable areas of their envelope and avoid being recognized and neutralized by antibodies.

 

A new therapeutic strategy against the disease: the modification of the virus envelope will allow introducing a greater production of these antibodies.
The study has been coordinated by Rafael Delgado and a group of researchers, the Microbiology Service and the Research Institute of the University Hospital 12 de October i + 12, have also collaborated the Infectious Diseases Unit of the Hospital La Paz and the Center scientist National Biotechnology (CNB-CSIC) Juan García Arriaza, have shown that the discovered antibodies can access these recondite areas if the envelope of the virus is modified before to remove those protections and expose the critical regions inside.

 
That type of antibodies, known as “Unicorn” because of the rarity in number, is detected in samples from patients who have overcome the infection. It is a natural defense that the survivors of this deadly disease have developed. The finding opens the door to a new vaccine.

Ebola_virus_em
Ebola is a filiform (elongated) virus that encloses, through a protein envelope, a fiber of genetic material called RNA. It is responsible for the disease also known as hemorrhagic fever and it is fatal in 80-90% of cases, five different strains are known.

 
The results of this research have been published in the journal “The Journal of Infections Disease”, it is a study have showed low neutralizing activity against full-length GPs o SUDV, BDBV, RESTV, and EBOV variants Mayinga and Kikwit.
It is not clear whether survivors are protected against homologous or heterologous ebolavirus.

 
Ebolavirus exhibits a complex process of cellular interaction and entry before actual fusion is produced in the late endosomal compartment. During the process of ebolavirus entry, the cleavage of the virion-associated glycoprotein (GP) by host cell cathepsins removes the glycan cap and mucin-like domains (MLDs), producing another, functionally distinct form of GP (GPcl). The cleavage of GP is thought to expose the receptor-binding site and, upon interaction with the late endosomal receptor NPC-1, mediates fusion of viral and cellular membranes. It has been previously proposed that Abs against MLD and the glycan cap are generally nonneutralizing, most likely because they are removed together with their epitopes from viral particles once endocytosis occurs. On the other hand, a number of Nabs were shown to remain attached during GP enzymatic processing because they were positioned at sites where they could prevent rearrangements necessary for viral fusion.

 
The 6D6 antibody was shown to successfully prevent cellular entry in vitro by isolates from all Ebolavirus species and to protect against virus infection in a mouse model.
They are pleomorphic viruses (of variable morphology).

 

The genome of the virus consists of a single molecule of linear single-stranded RNA of negative polarity (19.1 kb). The nucleotide is made up of two types of proteins: the NP protein, whose function is structural and the L protein. The capsid consists of several proteins: protein P, VP 30 (protein that allows it to unfold inside a host cell), VP35 , VP24 and VP40. The VP24 proteins together with VP40 form a matrix that holds the nucleoid together with the capsid (viral nucleocapsid).

 

 

Bibliography:

 

Luczkowiak J, Lasala F, Mora-Rillo M, Arribs JR, Delgado R; “Broad Neutralizing Activity Against Ebolaviruses Lacking the Mucin-Like Domain in Convalescent Plasma Specimens From Patients With Ebola Virus Disease”; The Journal of Infections Disease; 2018 Jun 25

https://academic.oup.com/jid/advance-article/doi/10.1093/infdis/jiy302/5043460

 
OMS
http://www.who.int/es/news-room/fact-sheets/detail/ebola-virus-disease

NDMA (Nitrosodimetilamine)

Etiquetas

, , , , , , ,

N-Nitrosodimethylamine_Ball_and_Stick

It is a toxic chemical compound related to affected medications.
N- nitrosodimetilamine is a member of a chemical class, the N-nitrosoamines, which are suppected carcinogens. It is toxic to the liver and other organs, and is a human carcinogen.

 
NDMA was first detected in groundwaters of Northern California in 1998. Is a semi-volatile organic chemical and has the molecular formula O=N-N (CH3)2. Yellow in color, and it has little or no taste and odor. Is soluble in water (3.978 mg/L) and is not likely to bioaccumulate, biodegradable, absorb to particulate water or volatilize. Is a semi-volatile organic chemical produced as by-product of several industrial processes and present at very low levels.

 
NDMA is formed involuntarily during several manufacturing processes, in many industrial areas and in the air, water and soil, as a consequence of reactions with other chemical substances called “alkylamines”. Alkylamines are compounds that occur naturally or can be manufactured.

 
NDMA is found in the diet:
• Meat and cured meat products
• Fish and fish products
• Beer
• Milk
• Cheese
• Soybean oil
• Canned fruit
• Apple Brandy
• Tobacco smoke
It is however unlikely to bioaccumulate, in the body NDMA is formed when acidic conditions in the stomach catalyze the reaction between nitrite and dimethylamine (DMA).
NDMA occurrence in drinking water may result from industrial groundwater contamination (rocket fuel), from the chlorination/chloramination of cationic polymers, from the use of ion exchange resines, and as a chlorination/ chloramination by product.

 
In industrial processes:
• manufacture of rubber tires
• leather tanning
• production of pesticides
• fish processing

 

The EPA IRIS classification of NDMA is B2, meaning that it can be reasonably anticipated to be a human carcinogen based on animal studies, however inadequate human data exist.
The unit risk factor: the maximum admissible concentration of NDMA:
• in drinking water in lakes and streams of water is 7ng L-1, 5-50 ppm., 0.00069 ppb.

• in air 16 parts per million (ppm)

• in foods 5-100 (ppm)

 

Bibliography:

 

• ATSDR: Agency for Toxic Substances & Disease Registry
https://www.atsdr.cdc.gov/toxprofiles/tp.asp?id=884&tid=173

 

• SFWATER.ORG: Water Quality
https://web.archive.org/web/20040803064201/http://sfwater.org:80/detail.cfm/MC_ID/10/MSC_ID/51/MTO_ID/NULL/C_ID/1865

 

• NIOSH: The National Institute for Occupational Safety and Health
https://www.cdc.gov/niosh/npg/npgd0461.html

 

• AEMPS: Agencia Española de Medicamentos y Productos Sanitarios
https://www.aemps.gob.es/informa/notasInformativas/medicamentosUsoHumano/calidad/2018/NI_ICM-CONT_08-2018-retirada-valsartan.htm

 

• Wikipedia: N-nitrosodimetilamine
https://en.m.wikipedia.org/wiki/N-Nitrosodimethylamine

 

• International Agency for Research on Cancer
https://www.iarc.fr/

 

• U.S. Environmental Protection Agency
https://www.epa.gov/

 

• Colin Baird
“Quimica Ambiental” Ed. Reverte, University of Western Ontario, 2ª ed. 2001

 

 

 

 

 

 

 

Didáctica de las Ciencias

Etiquetas

, , , , , , , , , , , , , ,

aprendizaje

En el siglo XXI las personas necesitan adquirir aptitudes y conocimientos científicos para sobrevivir en un mundo tan cambiante: globalización, internet, medio ambiente, migraciones, nuevas tecnologías que nos rodean en la vida diaria (automóvil, electrodomésticos, en el trabajo, en la escuela, en las comunicaciones). Que difieren mucho de las de nuestros padres y de las que vivirán nuestros hijos.

 
La Universidad de Harvard lleva un siglo trabajando el aprendizaje con el método “del caso” y las Web 2.0 permiten que el usuario se relacione y colabore con otros usuarios, sin importar la distancia ni el momento, estamos en el seno de una comunidad virtual donde también surgen comunidades de alumnos y especialistas. Pasado y presente se unen para avanzar en el conocimiento de las ciencias.

 
El proceso del aprendizaje consta de elementos: un método, unos recursos materiales y una actividad que los integra.
Una metodología: que va a adaptar el conocimiento a la edad de los alumnos, la materia a enseñar; así hablamos de “metodología colaborativa”, “metodología inductiva” o combinación de ambas.
Unos recursos: elementos materiales necesarios (mobiliario, espacio físico, hardware, software, pizarra, rotuladores, apps, papel)
• Una actividad integradora: el docente con los alumnos en el aula, una actividad concreta en un momento dado.

 
El método del caso, es el estudio de una situación concreta para aprender o mejorar en un campo del conocimiento. Se originó en 1914 en la Universidad de Harvard en la Escuela de Derecho: tomar decisiones, fundamentar resoluciones y valorar actuaciones.
El método del caso comprende:
• descripción narrativa
• grupo de observaciones
• situación de la vida real, incidente o suceso
• posibilidad de distintas opciones o soluciones facilitando el pensamiento divergente

 
Los buenos casos tienen que tener las siguientes características:
• fomentar la participación de los estudiantes a través de la investigación
• promover el estudio minucioso del caso en toda su complejidad
• evitar respuestas simplistas y poco elaboradas
• aumentar la disonancia de alternativas y visiones del problema

 
Fases:
fase preliminar: lectura y estudio del caso
• fase expresión de opiniones y juicios: reflexión individual
• fase de contraste: análisis común de los datos analizados
fase de reflexión teórica: formulación de conceptos teóricos.

 

En 1967, Gagné hace un análisis en el curso “Science- A Process Approach (SAPA)” una aproximación al proceso, relativo a los procesos de la ciencia del aprendizaje. Estructura la enseñanza y desarrolla las competencias de los procesos de los alumnos en diferentes situaciones.

 
A finales de la década de 1970 y comienzos de 1980, en la Universidad de California en Irvine, los lingüistas Stephen Krashen y Tracy Terrell, establecen el Natural Approach, o enfoque natural de aprendizaje, publicaron su método en el libro “The Natural Approach” (1983), publicado en Pergammon Press, ponen cinco hipótesis:
• Hipótesis del aprendizaje/adquisición: el aprendizaje es resultado del estudio y la adquisición es natural.
Hipótesis del monitor: el aprendizaje consciente actúa como monitor nunca como iniciador
Hipótesis del orden natural: la adquisición se realiza en un orden predecible
Hipótesis del input: un elemento nuevo o “input” aumenta la adquisición.
Hipótesis del filtro activo: la motivación, la autoestima o la ansiedad afectan a la adquisición.

 

Robin Millar de la Universidad de York, UK en el Departamento de Educación, establece también un Natural Approach en la didáctica de las ciencias en el enfoque científico de la investigación o de un “método científico” general. Ve la necesidad de hacer a los alumnos más “expertos” en:
• La selección de las cuestiones productivas para una investigación
• Recolección de datos, planificar las observaciones y medidas (precisión y validez)
• Análisis e interpretación de los datos.
• Evaluar la calidad de las pruebas para establecer después una conclusión.

 
Millar en 1990 propone un modelo, en el cual la comprensión procedimental está dividida en tres categorías:
Las competencias cognitivas generales: observación, clasificación.
Técnicas prácticas: utilizar instrumentos de medidas variadas
• Tácticas de investigación: reproducir medidas y mejorar la fiabilidad

 

En 1994 Millar propone el “Proyecto PACKS” sobre la interpretación de los dones sobre el rendimiento de los alumnos relativos a las tareas de la investigación:
Conceptúa la investigación en un modelo simple, que vincula la comprensión con las diferentes etapas del desarrollo de una investigación:
1. Tarea dada
Comprensión del contenido científico: naturaleza y objetivo de la investigación científica.
2. Tarea interpretada
Capacidad de manipulación, habilidad de usar material y aparatos de medida
3. Observaciones y medidas
Comprensión de la tarea de investigación, sobre su interpretación
4. Conclusión establecida
Comprensión de las pruebas empíricas: su naturaleza y criterios para evaluarlos (errores y fiabilidad de los resultados).
5. Comentarios evaluados sobre la conclusión.

 

Millar establece que la ciencia está ligada a la investigación, pero que en la “comprensión” también son importantes:
• Comprensión clara del objetivo de la investigación
• Comprensión de la idea de una variable y del control de las variables en las experiencias variadas
• Comprensión del problema relativo a la recopilación de resultados válidos y confiables, y la manera de evaluar la validez y confiabilidad de los resultados recabados.

 

 

En 1995, Gott y Duggan establecen en el Reino Unido los trabajos de investigación APU (Assessment of Performance Unit, APU) sobre el rendimiento de los alumnos llevadas a cabo en el currículo nacional por la Unidad de Evaluación del Rendimiento. Aportan que:
• los alumnos encuentran más complejas las tareas que contienen variables continuas que las que implican variables categoriales (comparaciones)
• el rendimiento está influenciado por el contenido de la tarea de investigación y por el contexto en el cual fue concebida (cotidiano o laboratorio).

 

 

Bibliografía:

• UNESCO. Investigación y Prospectiva en Investigación
http://unesdoc.unesco.org/images/0023/002348/234807S.pdf

 

Robin Millar, “Comprensión de los procesos de investigación científica en los alumnos”, (Proyecto PACKS) University of York, UK. 1994
http://icar.univ-lyon2.fr/Equipe2/coast/ressources/ICPE/espagnol/PartC/ICPE_capitulo_c4.htm

 

Gott y Duggan,Investigación APU”, 1995
https://www.sciencedirect.com/science/article/pii/S0191491X99000218

 

Robert M. Gagné, “Learning and Instructional Sequence” “Approach SAPA”. Florida State University. Sage Journals. 1967

 

 

• Leda Stott, Xosé Ramil, , “El método del caso”, Universidad Politécnica de Madrid, 2014

http://www.itd.upm.es/wp-content/uploads/2014/06/metodologia_estudios_de_caso.pdf

 

Health, J, “Teaching and Writing Case Studies: A practical guide”, ECCH, 2002

 

Links relacionados:

Robin Millar. University of York.
https://www.york.ac.uk/education/our-staff/academic/robin-millar/

Psychology Rice University
https://ga.rice.edu/programs-study/departments-programs/social-sciences/psychology/

 

El método científico

Etiquetas

, , , , , , ,

El método científico

Aplicando el método científico a un experimento, es posible demostrar que una suposición que lo explica es correcta o no, lo que permite llegar a una conclusión y establecer una teoría.

 

A lo largo de la historia René Descartes defendió “el inductivismo” que empezó a tenerse en cuenta desde Isaac Newton, también ha sido importante el método “hipotético-deductivo” que surgió a principios del siglo XIX.

 

Los primeros griegos con la escuela presocrática se niegan a aceptar las explicaciones sobrenaturales, religiosas o mitológicas de los fenómenos naturales. Tales de Mileto fue el primero que proclama que todo suceso tiene una causa natural.

 

Aristóteles introdujo el “empirismo”: las verdades universales pueden ser conocidas a partir de cosas particulares a través de la inducción. La herramienta utilizada por Aristóteles era el razonamiento deductivo en forma de silogismos. Los científicos podían deducir verdades universales a partir de las ya establecidas.

Durante la Edad Media se combina con el mundo islámico la teoría y la práctica, ya que los estudiosos de las ciencias eran artesanos. Los científicos musulmanes utilizaron la experimentación y la cuantificación, surgiendo los métodos científicos así a principios del siglo XI.

 

Posteriormente tanto Bacon como Descartes proporcionaron una base sólida para evitar que el pensamiento científico llegara  a falsas conclusiones a través de la mente o los sentidos.  Bacon establecía que los fundamentos eran empíricos, mientras que Descartes proporcionó una fundamentación metafísica del conocimiento.

 

Roger Bacon describe un ciclo repetitivo de observación, hipótesis, experimentación y la necesidad de una verificación independiente.

 

En 1619 René Descartes, científico y filósofo,  en su obra “Reglas para la dirección de la mente” establece principios rectores para la investigación científica, para terminar con el sistema aristotélico. En 1637 escribe su tratado “Discurso del método”, se caracteriza por su simplicidad, basado en las matemáticas, establece cuatro preceptos:

  1. No admitir nada que no sea absolutamente evidente.
  2. Dividir cada problema en tantos problemas particulares como convenga para resolverlos mejor.
  3. Dirigir por orden los pensamientos yendo de lo más simple a lo más complejo.
  4. Enumerar completamente los datos del problema y pasar revista a cada uno de los elementos de su solución para asegurarse de que se ha resuelto correctamente.

 

Isaac Newton rechaza las ideas racionales de Descartes y se inclina al enfoque empírico de Bacon, describió cuatro “reglas del razonamiento en los Principia”:

  1. No debemos admitir más causas de cosas naturales que las que son verdaderas y suficientes para explicar sus apariencias.
  2. Por lo tanto, a los mismos efectos naturales debemos asignarles, hasta donde sea posible, las mismas causas.
  3. Aquellas propiedades de los cuerpos que no puedan aumentarse o disminuirse gradualmente, y que existen en todos los cuerpos que podamos examinar serán consideradas como propiedades universales de la totalidad de los cuerpos.
  4. En la filosofía experimental debemos aceptar las proposiciones derivadas por inducción general de los fenómenos como exactas o muy probablemente ciertas, a pesar de las hipótesis contrarias que pudieran imaginarse, hasta el tiempo en que ocurran otros fenómenos, con los que puedan hacerse más exactas o aceptar excepciones.

 

A partir de la mitad del siglo XX, hay grandes mejoras en el entendimiento del método científico con Karl Popper, publicó “La lógica de la investigación científica”, según Popper, las teorías científicas deben realizar predicciones que pueden ser aprobadas, y rechazadas si sus predicciones se demuestra que no son correctas, argumentó que la ciencia avanza más con el razonamiento deductivo, conocido como racionalismo crítico.

 

Principales características del método científico:

Tiene una base empírica: es un proceso continuo de contrastación con los hechos de la naturaleza al que deben someterse sus enunciados o hipótesis.

Diversidad de formas: puede ser cualitativo o cuantitativo.

Sistematicidad: debe ser sistemático y controlado.

Fiabilidad o replicabilidad: debe ser consistente y replicables sus métodos, condiciones y resultados.

Validez: exactitud de la interpretabilidad de los resultados (validez interna), como generalización de las conclusiones (validez externa).

Flexibilidad: se adapta al objetivo de estudio de las diversas ciencias.

 

 

Principales formas del método científico:

Método inductivo: sólo se puede llegar al conocimiento a través de la experiencia.

Método deductivo: parte de un conjunto de axiomas o principios indemostrables a los que se llega por procesos de razonamiento que no se apoyan en observaciones empíricas y por establecer un conjunto de reglas de procedimiento a partir de las cuales se realizan deducciones lógicas aplicables a los datos reales.

Método hipotético-deductivo: utiliza de forma combinada la inducción y la deducción.

Las fases son:

  1. Planteamiento del problema u objeto de estudio y definición de variables.
  2. Formulación de hipótesis contrastables.
  3. Establecimiento de un procedimiento o plan de recogida de datos.
  4. Análisis de datos.
  5. Interpretación de los resultados: discusión y conclusiones.
  6. Elaboración del informe de investigación o comunicación de resultados.

Estas fases se corresponden con tres niveles:

  1. Nivel teórico conceptual se incluyen las fases del planteamiento del problema y de la formulación de hipótesis contrastables.
  2. Nivel técnico metodológico se vinculan planteamientos teóricos con la realidad empírica, se seleccionan los métodos o procedimientos para la recogida de datos relevantes a las hipótesis.
  3. Nivel estadístico analítico lo constituye el tratamiento estadístico de los datos obtenidos mediante el diseño correspondiente.

 

 

 

Bibliografía:

  • René Descartes, “Discurso del método”; Ed. Edaf; 1982
  • Sofía Fontes de Gracia et al; “Fundamentos de investigación Psicológica”; Uned; 2010
  • Peter Achinstein; “Science Rules: A Historical Introduction to Scientific Methods”; Ed. The Johns Hopkins University Press; 2004

 

 

 

Links relacionados:

 

 

 

 

 

 

 

 

Arrhenius: electroquímica

Etiquetas

, , , , , , , ,

arrhenius

Las teorías de Arrhenius son el primer paso para dar una interpretación molecular de los procesos que ocurren en una reacción química.

 

En su época se reconocían como  bases cuando en una disolución acuosa tenían determinadas características: si la base está bien disuelta la mezcla tiene un sabor amargo; al poner en contacto el papel tornasol con la disolución éste cambia su color de rojo a azul; al tacto éstas sustancias son resbaladizas y jabonosas; y cuando reaccionan con los ácidos dan como productos agua y sales.

 
Svante August Arrhenius nace en Wijk (1859) Suecia. Estudia en la Universidad de Upsala, donde estudió matemáticas, química y física. Se doctoró en 1884, en su tesis de Licenciatura sienta las bases de la “teoría de la disociación electrolítica”, que más tarde confirmó experimentalmente. De cómo los electrolitos se disociaban en sus iones cuando se encontraban en disolución y la fuerza relativa e dichos iones según fuesen ácidos o bases.
Amplia estudios en Riga, Würxburg, Graz, Amsterdam, Leipzig… Su labor docente se desarrolla en Uppsalla y Estocolmo. Ocupa cargos como profesor de física en la Universidad donde cursó estudios universitarios, alcanzando el grado de catedrático y convirtiéndose en rector. Trabajó en el Real Instituto de Tecnología de Estocolmo y fue director del Instituto Nobel de fisicoquímica.

 
Recibe el Premio Nobel de Química en 1903 el mismo año que los esposos Curie reciben el Premio Nobel de Física. Muere en el año 1927.
En 1889 publica su trabajo: “sobe la disociación de sustancias en soluciones acuosas”. Sus trabajos fueron sobre diversos campos de la ciencia: poder de difusión de las soluciones, conductividad eléctrica, influencia de la Luna en el estado eléctrico de la Tierra, influencia de los iones y electricidad atmosférica en la salud, el efecto invernadero producido por la contaminación de gases nocivos como en dióxido de carbono, desarrolla la teoría cosmogónica o de la panspermia que explica el nacimiento de la vida en la Tierra, gracias a las bacterias. Desarrolló “la ecuación de Arrhenius”, que explica la relación de la temperatura con la velocidad de las reacciones. También escribió unTratado de electroquímica” (1901) y “Tratado de física cósmica” (1903). Murió en 1927 en Estocolmo.

 

Teoría de la disolución electrolítica
En la segunda parte de sus tesis, “Théorie chimique des electrolytes”, más teórica que la primera, Arrhenius argumentaba que se consideraba una solución de sal como una mezcla de partes “activas” (electrólitos) e “inactivas” (no electrólitos). Al diluir, el número de partes activas se incrementaba. La disolución electrolítica aumentaba con la dilución:
Todas las sales existen en solución como moléculas complejas, las cuales se descomponen parcialmente al diluirse. Con ayuda de esta representación se explican las propiedades de las sales en todas las diluciones, así como también las propiedades de todos los electrólitos en concentraciones suficientemente elevadas”.

 

experiment-ea30b60e2d_1920
Arrhenius proponía que los electrolitos, sustancias que en disolución permiten el paso de la corriente eléctrica, se disociaban al entrar en disolución, formando iones, en tal proporción, que el número de cargas totales de los aniones (iones con carga negativa) era igual que el número de cargas totales de los cationes (iones con carga positiva), formaban disoluciones eléctricamente neutras.
La concentración es la magnitud química y elemental en electroquímica que expresa la cantidad de un elemento o de un compuesto por unidad de volumen. En el sistema Internacional se emplea el mol/m3. A cada sustancia le corresponde un valor de solubilidad, que es la cantidad máxima de ella (soluto) que puede haber en una disolución, y depende de condiciones como la temperatura, la presión, otras sustancias disueltas o en suspensión y cuál sea la cantidad y la concentración de ellas. En química para expresar cuantitativamente la proporción entre un soluto y el disolvente en una disolución se emplean: molaridad, normalidad, molalidad, formalidad, porcentaje en peso, porcentaje en volumen, fracción molar, partes por millón, partes por billón, partes por trillón, etc.

 

 

Teoría de ácidos y bases
Definió las sustancias ácidas como sustancias químicas que contienen hidrógeno y al ser disueltas en agua se producía una concentración de iones de hidrógeno o protones, mayor que la del agua pura. Y definió a la base como una sustancia química que al ser disuelta en agua produce iones hidroxilo OH-.

 

Teoría del efecto invernadero
Calculó por primera vez como el CO2 atmosférico retiene en la atmósfera la radiación infrarroja proveniente del Sol. Mediante la “Ley de Stefan-Boltzmann” formuló su Ley de efecto invernadero: si la cantidad de ácido carbónico (CO2) aumenta en progresión geométrica, el aumento de la temperatura aumentará casi en progresión aritmética.
Una duplicación del CO2 provocaría un aumento de temperatura de 5-6º.

 

Teoría del ion electrón
Arrhenius definió a los ácidos como sustancias del tipo HX que en solución se disocian produciendo H+ y X-, definiendo a las bases MOH, como sustancias que en solución producen M+ y OH-, y a la neutralización como el resultado de la combinación de esos iones.
La reacción de neutralización para su definición sería:
H+ + OH- —— H20 + sales
Representando por AH la fórmula de un ácido genérico, la reacción de disociación del ácido se puede escribir, de acuerdo a las ideas de Arrhenius, en la forma:
AH << A- (aq) + H+ (aq)
En los ácidos fuertes la reacción estaría desplazada hacia la derecha de modo que abundarían más los iones H+ (aq).
Generalizando los resultados de las anteriores reacciones, Arrhenius concluyó que eran bases todas aquellas sustancias capaces de dar en disolución acuosa iones OH-.

 

Teoría de la panspermia
Popularizó este término al desarrollar la hipótesis cosmogónica en los libros “Escritos de la física cósmica” y “El devenir de los mundos”. El Universo es una inmensa máquina térmica funcionando entre manantiales calientes (las estrellas) a los fríos (las nebulosas). Se traslada la vida o las moléculas necesarias para formar la vida de un astro a otro.

 

Teoría de Arrhenius

La velocidad de una reacción depende de la temperatura, de la composición. En la ecuación de Arrhenius:

 

Ecuación de Arrhenius

 

K0 : representa el factor de frecuencia
Ea : la energía de activación de la reacción

A temperatura constante cuanto mayor es la Ea, mas pequeña será la constante de velocidad y más lenta será la velocidad de reacción. Si las velocidades de reacción son rápidas, la Ea será pequeña.

 

Quasi-equilibrium1
Hay un nivel de energía del estado activado en la formación de los productos a partir de los reactantes, una barrera de energía que debe superarse: “Energía de Activación”.

 

 

Bibliografía:
William H. Brock; “Historia de la Química”, Editorial Alianza; 1998

 

Enciclopedia Británica. Svante Arrhenius.
https://www.britannica.com/biography/Svante-Arrhenius

 

 

Links relacionados:

 

The Nobel Prize in Chemistry 1903. Nobelprize.org. Svante Arrhenius.
https://www.nobelprize.org/nobel_prizes/chemistry/laureates/1903/arrhenius-facts.html

 

Uppsala University. Research
https://www.uu.se//en/research#__utma=1.1668933299.1528043798.1528043798.1528043798.1&__utmb=1.1.10.1528043798&__utmc=1&__utmx=-&__utmz=1.1528043798.1.1.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided)&__utmv=-&__utmk=85956505