Innovation: lifecycle

Etiquetas

, , , , ,

cyclelifes

 

Engaging with open innovation is a difficult process which requires time and an understanding of an orgnanisation´s own processes.

Challenges associated with engaging with open innovation across the lifecycle of a process and a product.

Everett M. Rogers was an American communication theorist and sociologist, who originated the diffussion of innovations theory and introduced the term early adopter. He was distinguished Professor Emeritus in the Department of Communication and Journalism at the University of New Mexico. “Diffusion of Innovations” was published in 1962, it became the second most-cited book in the social sciences.

innovations

Rogers proposes that adoprters of any new innovation or idea can be categorized as:

  • Innovators 2,5%
  • Early adopters 13,5%
  • Early mayority 34%
  • Late maority 34%
  • Laggards 16%

Based on the mathematically Bell curve.

Each adopter´s willingness and ability to adopt an innovation depends on their:

  • Awareness
  • Interest
  • Evaluation
  • Trial
  • Adoption

People can fall into different categories for different innovations. The graph shows acumulative percentage of adopters over time-slow at the start, more rapid as adoption increases, then leveling off until only a small percentage of laggards have not adopted.

Are two types of innovative strategies for a large company:

Sustaining innovation: evolutionary changes in their markets, products, etc. valued by their existing customers, fairly well.

Disruptive innovation: radical shifts in technology, customers, regulatory changes, etc, that create new markets. It is innovation that go after new markets, new customers, new technologies, etc. are best built outside a large company´s existing organization. In a large company is attempting to solve two simultaneous unknowns: the customer/market is unknown, and the product feature set is unknown.

Mastering disruptive innovation in a large company requires:

  • Different people
  • Different processes

 

Bibliography:

  • Everett Roggers, “ Diffusion of Innovations”, 5th Edition, Ed. Simon and Schuster, 2003
  • Wikipedia

 

Links relationed:

  • Innovation Management

http://www.innovationmanagement.se/tag/innovation-life-cycle-processes/

 

 

Architectural Innovation

Etiquetas

, , , , ,

algebra-1238600_1280

 

Architectural innovation therefore presents established organizations with subtle challenges that may have significant competitive implications.

 

In 1990, Rebecca M. Henderson from MIT and Kim B.Clark from Harvard University wrote an article: “The Reconfiguration of Existing Product Technologies and the Failure of Established Firms”, describe an innovation typology that was base on an innovation´s impacto on core design components and relationships between them.

cuadro

 

The distinctions between radical, incremental, and architectural innovations are matters of degree

 

  • Incremental innovation: introduce quality improvements in core components. The Word renovation would more precisely describe this type of innovation.Tends to reinforce the competitive positions or established firms.

 

  • Modular innovation: may result in the complete redesign of core components, while leaving linkages between the components unchanged.

 

  • Architectural innovation: changes the nature of internations between core components, while reinforcing the core design concepts.

 

Is designed to draw attention to innovations that use many existing core design concepts in a new architecture and that therefore have a more significat impacto on the relationships between components than on the technologies of the components themselves.

 

  • Radical innovations: introduce a new meaning, potentially a paradigm shift.

 

Creates unmistakable challenges for established firms, since it destroys the usefulness of their existing capabilities.

 

 

 

The concept of architectural innovation and the related concepts of component and architectural knowledge have a number of important implications. Open up new areas in understanding the connections between innovation and organizational capability. An architectural innovation´s affect despends in a direct way on the nature of organizational learning. Learning about changes in architecture-about new interactions across components may therefore require explicit management and attention.

 

To the degree that manufacturing, marketing, and finance rely on communication channels, information filters, and problem-solving strategies to integrate their work together, architectural innovation at the firm level may also be a significant issue. An understanding of architectural innovation would be useful to discussions of the effect o technology on competitive strategy.

 

Modular Innovations is where you maintain the architecture and modify and modify the modules. Architectural innovation is where the architecture changes.

 

 

Some issues to consider:

 

  1. By creating incompatibilities you develop lock in features and generate high switching costs.

  2. By developing modules you do not have to change the underlying architecture.

  3. Modular systems shorten PLC.

  4. It stimulates specialization.

  5. Increases scale and differentiation.

  6. Builds alliances.

  7. Competitiors form Satndards organizations to ensure consistency in the development of systems.

  8. Market Power. Sometimes powerful groups and organizations can prevent the best technology from being utilized.

  9. Reduces risk increases investment.

  10. Adoption of new architecture can be slow.

  11. Modular and architectural innovation are the extreme cases.

  12. Modular complementary innovation. Complementary modules emerge that increase the potential of the new module.

  13. Modular transformation, a new module may act as a bridge between two different architecture.

  14. Modular upgrading may occur when a new or improved module spawns complementary modules.

  15. Architectural Knowledge. Occasionally a company not normally seen as a threat transforms the competitie environment.

  16. First Mover Advantage. Building a dominant market share.

 

 

Bibliography:

 

  • Henderson & Clark Architectural innovation: “The reconfiguration of existing product technologies and the failure of established firms”, Administrative Science Quarterly, Vol.35, No.1, Ed. Sage Publications, Inc; Johnson Graduate School o Management, Cornell University.:1990

 

  • Wikipedia

 

 

 

Links relationed:

 

  • Harvard Business School

http://www.shepleybulfinch.com/project/harvard-business-school/A42/

 

  • Rebecca M. Henderson

https://www.youtube.com/watch?v=BBgLJgAZ6wc

 

 

 

 

 

 

 

 

 

 

 

 

Innovation

Etiquetas

, , , , , , ,

innovation

An innovator, is a person who introduces into reality, opens a new area.

Diffusion of innovation research was started in 1903 by researcher Gabriel Tarde. Was a French sociologist, criminologist and social psycologist who conceived sociology as base on small psycological interactions among individuals. Amon the concepts that Tarde initiated were the group mind and economic psychology and the develop.

Tarde defined the innovation-decision process as a series o steps that includes:

  1. First knowledge
  2. Forming an attitude
  3. A decisión to adopt or reject
  4. Implementation and use
  5. Confirmation of the decisión

This process has been proposed that the life cycle of innovations can be described using “s-curve” or “diffusion curve”, s-curve relations the productivity against time.

  • In early stage of a particular innovation, growth is relativey slow,
  • after customers begin to demand and the product growth increases more rapidly
  • Towards the end o its lifecyce, growth slows and maye ven begin to decline
  • In the later stages, no amount of new investment in that product will yield a normal rate of return.

Innovation is the result o a process that brings various novel ideas in a way that they affect society: Industrial economics will typically be working on innovations renewal and enlargement of products, services and markets, development of new methods of production; and establishment of new management systems; and found services to meet the growing consumer demand.

Positive changes in the organizational context:

  • Efficiency
  • Productivity
  • Quality
  • Competitiveness
  • Market sahere

Peter Drucker (Austrian-born American management consultant, educator, and autor, the founder of modern management ), wrote:

Executives and managers need to break away from traditional ways of thinking and use chang to their advantage. It is a time of risk bute ven greater opportunity. The world of work is changing with the increase in the use of technology and both companies and businesses are becoming increasingly competitive”.

Changes in industry structure, in market structure, in local and global demographics, in human perception, mood and menaning, in scientific knowledge, etc.”

Measure of innovation at the organizational level relates to individuals, team-level assessments, and prívate companies with workshops, consultants, or internal benchmarking.

Companies will typically be working on new innovations that will eventually replace older ones.

Bibliografía:

  • Burgher, Peter H, “Changement, Understanding&Managing Business”, Lexington Books, 1979
  • Carl Heyel “ The encyclopedia of management”, Van Nostrand Rinhold Company, 1982
  • Eliot D. Chapple “Culture and Biological man, explorations in behavioral anthropology”, Cornell University, 1970
  • Spencer Johnson “Who Moved my Cheese?”Spencer Jhonson, 1998
  • Tom Peters “Liberation Management” Excel, 1992
  • Wikipedia

Links:

  • Innovation” Harvard

https://hbr.org/topic/innovation

https://i-lab.harvard.edu/

 

 

Superbacterias en busca de antibióticos

Etiquetas

, , , , , , , ,

school-40847_1280

Con la llegada de los antibióticos se produjo un cambio en la historia de la medicina, a partir de los años cuarenta del siglo XX, disminuye considerablemente el número de fallecimientos. Pero con el abuso, están perdiendo efectividad. Aumentando las infecciones por microorganismos resistentes a los antibióticos: “bacterias multiresistentes” o “superbacterias”. Aumentan las infecciones y aumentan las muertes.

Koch, publicó un artículo en 1879 “Etiología de las enfermedades infecciosas traumáticas”, donde demuestra que la bacteria podía causar la enfermedad cuando se inoculaba a un animal sano y que para que un microorganismo produzca una enfermedad se tiene que cumplir cuatro requisitos o “postulados”:

  1. El agente patógeno debe estar presente en los animales enfermos y ausentes en los sanos.
  2. El agente debe ser cultivado en un cultivo axénico puro aislado del cuerpo del animal.
  3. El agente aislado en un cultivo axénico debe provocar la enfermedad en un animal susceptible al ser inoculado.
  4. El agente debe ser aislado de nuevo de las lesiones producidas en los animales de experimentación y ser idéntico al inoculado originalmente.

Caracterizó los organismos responsables de tuberculosis, cólera; y sus discípulos identificaron: los microorganismos causantes del tifus, la difteria, la neumonía, la gonorrea, la fiebre ondulante, la meningitis, la lepra, el tétanos, la peste, la sífilis, la tos ferina y otras muchas causadas por estafilococos y estreptococos.

El término “antibiosis” se refiere a cuando se destruye la vida de un organismo por otro organismo para preservar su propia vida, y Selman Waksman (1888-1973) acuñó la palabra “antibiótico” (destructor de la vida). El primer antibiótico fue la penicilina, un producto derivado de un hongo del género Penicillium, Fleming un bacteriólogo escocés que trabajaba en el Hospital de St. Mary´s de Londres, comunicó su descubrimiento sobre la penicilina en el British Journal of Experimental Pathology en 1929, al inspeccionar los cultivos antes de destruirlos vio que la colonia de un hongo había crecido espontáneamente, como un contaminante, en una de las placas de Petri sembradas de Staphylococcus aureus, compartió el Premio Nobel de Medicina en 1945 junto a Ernst Boris Chain y Howard Walter Florey.

El peptidoglicano o mureína es un copolímero formado por una secuencia alternante de N-acetil-glucosamina y el Ácido N-acetilmurámico unidos mediante enlaces B-1,4. Es muy resistente y protege a las bacterias de una ruptura osmótica en ambientes acuáticos y da a los tipos diferentes de bacterias sus formas. La cadena es recta y no ramificada. Constituye la estructura básica de la pared celular de las bacterias.

La pared celular Gram-positiva, contiene una capa de peptidoglicano muy gruesa, muy desarrollada, y llega a tener hasta 40 capas. Responsable de la retención de los tintes violetas durante la tinción de Gram. La constitución de la estructura química es característica de la especie y constituye un buen parámetro taxonómico.

La pared celular Gram-negativa, contiene una capa fina de peptidoglicano adyacente a la membrana citoplasmática, presenta una sola capa. La constitución es igual en todas las bacterias Gram negativas. Responsable de la incapacidad de la pared celular para conservar el color violeta en la decoloración con etanol durante la tinción de Gram. La pared celular Gram-negativa contiene una membrana externa adicional compuesta por fosfolipidos y lipopolisacáridos que hacen frente a las condiciones exteriores.

La OMS (Organización Mundial de la Salud) ha afirmado que en la etapa de los posantibióticos las infecciones comunes volverán a ser potencialmente mortales. Sí en los próximos años no se desarrollan nuevos antibióticos que sustituyan a los que están perdiendo su efectividad, morirán millones de personas por infecciones bacterianas.

La mayor amenaza a la que se enfrenta Europa es la de las superbacterias resistentes a un grupo de antibióticos muy potentes llamados “de último recurso”, los carbapenémicos. Hay un grupo de enterobacterias productoras de carbapenemasas (CPE), las carbapenemasas son unas enzimas que inactivan al que prácticamente es el último escalón terapéutico frente a los microorganismos multirressitentes. Las bacterias gramnegativas son resistentes a múltiples antibióticos, tienen la capacidad de encontrar nuevas formas de resistir a los tratamientos y pueden transmitir material genético que hace a otras bacterias farmacorresistentes.

La OMS ha publicado una lista de las bacterias para las que necesitan urgentemente antibióticos, se divide en tres categorías con arreglo a la urgencia en que se necesitan los nuevos antibióticos: prioridad crítica, alta y media.

La lista se elaboró con la División de Enfermedades Infecciosas de la Universidad de Tübingen (Alemania). Los criterios para incluir patógenos en la lista fueron los siguientes:

  • El grado de letalidad de las infecciones que provocan
  • El hecho de que el tratamiento requiera o no una hospitalización larga
  • La frecuencia con que presentan resistencia a los antibióticos existentes cuando infectan a las personas de las comunidades
  • La facilidad con la que se transmiten entre animales, de animales a personas y entre personas
  • Si las infecciones que provocan pueden o no prevenirse
  • Opciones terapéuticas que quedan
  • Si se están investigando y desarrollando nuevos antibióticos para tratar las infecciones que causan

El grupo de prioridad crítica: bacterias multirresistentes, que son peligrosas en hospitales, residencias de ancianos y pacientes que necesitan ser atendidos con dispositivos como ventiladores y catéteres intravenosos. Han adquirido las bacterias resistencias a una gran cantidad de antibióticos, como los carbapenémicos y las cefalosporinas de tercera generación.

Prioridad 1: CRÍTICA

  • Acinetobacter baumannii, resistente a los carbapenémicos
  • Pseudomonas aeruginosa, resistente a los carbapenémicos
  • Enterobacteriaceae, resistente a los carbapenémicos, productoras de ESBL

Los niveles segundo y tercero, categorías de prioridad alta y media: bacterias que exhiben una farmacorresistencia creciente y provocan enfermedades comunes como la gonorrea o intoxicación alimentarias por salmonela.

Prioridad 2: ELEVADA

  • Enterococcus faecium, resistente a la vancomicina
  • Staphylococcus aureus, resistente a la meticilina, con sensibilidad intermedia y resistencia a la vancomicina.
  • Helicobacter pylori, resistente a la claritromicina
  • Campylobacter spp. Resistente a las fluoroquinolonas
  • Salmonellae, resistentes a las fluoroquinolonas
  • Neisseria gonorrhoeae, resistente a la cefalosporina, resistente a las fluoroquinolonas

Prioridad 3: MEDIA

  • Streptococcus pneumoniae, sin sensibilidad a la penicilina
  • Haemophilus influenzae, resistente a la ampicilina
  • Shigella spp, resistente a las fluoroquinolonas

Bibliografía:

  • OMS
  • Wikipedia

Links relacionados:

  • OMS: Bacterias de nuevos antibióticos

http://www.who.int/mediacentre/news/releases/2017/bacteria-antibiotics-needed/es/

 

 

 

 

 

 

 

 

 

El Big Data y la salud

Etiquetas

, , , , , , , , , , , ,

digital-388075_640

La explosión del “Big Data” está modificando los procesos de análisis de datos, para resolver problemas complejos relacionados con la investigación científica y biomédica, educación en la salud, etc.

Las empresas, los usuarios y dispositivos, generan gran cantidad de datos; que han crecido exponencialmente, cuyo análisis ayudará a conseguir ventajas competitivas. Es necesario una tecnología para mover el volumen de datos. También metodologías y procesos para acceder y explotar esta información.

Enviar correos electrónicos por e-mail, mensajes por WhatsApp, publicar un estado en Facebook, twittear contenidos o responder a una encuesta por la calle son cosas que hacemos a diario y que generan datos y metadatos que pueden ser analizados.

Big Data o Datos masivos son una cantidad de datos tal que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable. En 2012 se estimaba su tamaño de entre una docena de terabytes hasta varios petabytes en un único conjunto de datos. Suficientemente masivo, como para poner de relieve cuestiones referentes al anonimato.

Gibabyte: 1.000.000.000

Terabyte: 1.000.000.000.000

Petabyte: 1.000.000.000.000.000

Exabyte: 1000.000.000.000.000.000

Tipos principales de datos Big Data:

  • Datos estructurados: datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Ej.: Las bases de datos y las hojas de datos.
  • Datos no estructurados: datos en el formato tal y como fueron recolectados, carecen de formato específicos: Ej.: e-mails, Pdf
  • Datos semiestructurados: datos que no se limitan a campos determinados, pero que contienen marcadores para separan los diferentes elementos. Poseen los propios metadatos semiestructurados Ej.: HTML, XML y JSON.

Además del gran volumen de información, hay que tener en cuenta en el manejo del Big Data la gran variedad de datos (dispositivos móviles, audio, video, sistemas GPS, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc.), y la velocidad de respuesta para obtener la información adecuada en el momento preciso.

Esta información es generada por las personas directa e indirectamente de forma continuada en cada una de las actividades que realizamos varias veces al día con los “smartphones”, transacciones financieras en línea y bases de datos con datos de la población. También en la comunicación entre ordenadores (M2M machine-to-machine).

Tipos de procedencia datos Big Data:

  1. Web and Social Media: procedente de redes sociales como Facebook, Twitter, Linkedin, blogs, etc.
  2. Machine-to-Machine (M2M): procedente de conexiones entre dispositivos, con transmisiones a través de redes alámbricas, inalámbricas o híbridas.
  3. Big Transaction Data: registros de facturación, telecomunicaciones con registro de las llamadas (CDR).
  4. Biometrics: información biométrica como reconocimiento facial, genética, etc.
  5. Human generated: llamadas telefónicas, notas de voz, documentos electrónicos, etc.

Hay bases de datos OLTP (On Line Transaction Processing), dinámicas, donde la información se puede consultar y modificar en tiempo real y bases de datos OLAP (On Line Analytical Processing), estáticas, donde la información en tiempo real no está afectada.

Principales herramientas para trabajar con Big Data:

Son ecosistemas de proyectos que permiten simplificar, administrar, coordinar y analizar grandes volúmenes de información.

Hadoop: es un proyecto de alto nivel Apache, construido y usado por una comunidad global de contribuyentes, mediante programación Java. Un clúster típico Hadoop incluye un nodo maestro y múltiples nodos esclavos.

hadoop_1

El nodo maestro consiste en Jobtracker (rastreador de trabajos), Tasktracker (rastreador de tareas), Namenode (nodo de nombres), Datanode (nodo de datos); un nodo esclavo o compute node (nodo de cómputo) es un Datanode y un Tasktracker .

Hadoop MapReduce: es el núcleo de Hadoop, se refiere al proceso map (toma un conjunto de datos y lo convierte en otro conjunto), una fase intermedia es la denominada shuffle (obtiene las tuplas (pares de llave/valor) del proceso map y determina que nodo procesará estos datos dirigiendo la salida a una tarea reduce en específico.

Hadoop Common: son un conjunto de librerías que soportan varios subproyectos de Hadoop.

Avro: es un proyecto de Apache que provee servicios de serialización.

Cassandra: es una base de datos no relacional distribuida y basada en un modelo de almacenamiento de “clave-valor”, desarrollada en Java.

Chukwa: diseñado para la colección y análisis a gran escala de “logs”.

Flume: su tarea principal es dirigir los datos de una fuente hacia otra localidad, hay tres entidades principales: sources (fuente), decorators (operación dentro del flujo de datos) y sinks( destinos).

HBase: base de datos columnar (column-oriented database) que se ejecuta en HDFS.

Hive: una infraestructura de data warehouse que facilita administrar grandes conjuntos de datos que se encuentran almacenados.

Jaql: fue donado por IBM a la comunidad de software libre. Formato JSON( Query Language for Javasript Object Notation) lenguaje funcional y declarativo, diseñado para procesar grandes volúmenes de información .

Lucene: proyecto de Apache para realizar búsquedas sobre textos.

Oozie: proyecto de código abierto que simplifica los flujos de trabajo y la coordinación entre cada uno de los procesos.

Pig: el lenguaje PigLatín diseñado para manejar cualquier tipo de dato y Pig es el ambiente de ejecución.

ZooKeeper: proyecto de código abierto de Apache que provee infraestructura centralizada y de servicios que pueden ser utilizados por aplicaciones para asegurarse procesos en los cluster serializados o sincronizados.

En la investigación biomédica, salud, educación hay proyectos donde se emplea análisis Big Data:

  • En la pandemia de la gripe A, el website Google Flu Trends, gracias a los resultados de las búsquedas de usuarios que contienen “Influenza-Like Illness Symptoms”, agregando ubicación y fecha, se predijo la actividad de la gripe con dos semanas de antelación. Los países con sistemas de predicción poco desarrollados pueden hacer uso, tomando las medidas oportunas.
  • En la esclerosis múltiple, una enfermedad que afecta a la médula espinal y al cerebro, la Universidad de Nueva York (SUNY), están aplicando análisis con big data.
  • Monitorización de bebes prematuros, en el instituto de Tecnología de la Universidad de Ontario (UOIT), análisis en tiempo real de IBM (IBM InfoSphere Streams).
  • Investigaciones relacionadas con el cáncer, por el Lineberger Comprehensive Cancer Center, utilizan Hadoop y HBase en el proyecto The Cancer Genome Atlas (TCGA).
  • Investigación de secuencias de proteínas, para determinar enlaces evolutivos se usa Hadoop en el PSG College of Technology, India.

 

Bibliografía:

  • NASA

Nick Skytland, “What is NASA doing with Big Data today? “, 2012

https://open.nasa.gov/blog/what-is-nasa-doing-with-big-data-today/

  •       IBM

Jorge Daniel Anguiano Morales, “Características y tipos de bases de datos”, 2014

https://www.ibm.com/developerworks/ssa/data/library/tipos_bases_de_datos/

Ricardo Barranco Frangoso, “¿Qué es big data?”,2012

http://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/index.html

  •  
  • Computer world: “Big data “,2017

http://www.computerworld.es/big-data

  • Wikipedia

 

Links relacionados:

  • Big Data Congress 2016

http://bigdatacongress.barcelona/es/

  • IBM: Grandes volúmenes de datos

http://www.ibm.com/analytics/es/es/technology/hadoop/

  • Mike 2.0 gestión de información

http://mundobi.com.ar/?p=322

  • NASA: Ad-Hoc Big Data Task Force

https://science.nasa.gov/science-committee/subcommittees/big-data-task-force

Guía Miguelín: gastronomía de la Comunidad de Madrid

Etiquetas

, , , , , , , ,

foto-guia-miguelin

“Se ha buscado que prime la buena cocina, la limpieza, en algunos la cordialidad y simpatía de sus propietarios y sobre todo, su relación calidad-precio. Esto último no significa que sean baratos, la cuenta aumenta o disminuye en función de una serie de factores. Los vinos y las copas de la sobremesa suelen ser el factor principal, siendo esta apreciación eminentemente subjetiva” Me he interesado por el lado humano de las personas. ¿Cómo fueron sus inicios? ¿Cómo levantaron el negocio? ¿Cómo han pasado de generación en generación?” Miguel Casas Sánchez

Los platos con la denominación “a la madrileña” tienen su origen en las tascas y tabernas madrileñas.

La gastronomía de Madrid tiene su origen en las costumbres culinarias de la población inicial cuando Felipe II creó la capital, y la aportación de pueblos de la provincia. La cocina típica madrileña es la fritura: churros, calamares a la romana, tortilla de patatas, bocadillos de calamares y las patatas bravas.

Surgen las cafeterías en la capital, tras la contienda de la Guerra Civil, donde se toman los cafés y los aperitivos.

A principios de los años 80 aparecen  las cadenas de comida rápida y se abren restaurantes en la ciudad. Durante el siglo XX se van instalando, restaurantes de comida internacional.

Toda esta nueva cocina gastronómica  se fusiona con los platos típicos madrileños, tanto en olores como en sabores, dando una nueva identidad culinaria. Otros eventos como los congresos gastronómicos hacen que la capital esté en contacto con la nueva cocina y se transforme en los gastrobares.

El autor de “La Guía Miguelín”: cita en la publicación 250 restaurantes ubicados en la Comunidad de Madrid. Miguel Casas al comer fuera de casa la mayoría de las veces, promocionando la energía eléctrica en Hidroeléctrica e Iberdrola, conoce sitios donde comer: restaurantes, tascas o casas de comida en donde le apetecería volver. Sitios en los que se engrandece el menú del día, se subliman las raciones o se prodigan tapas generosas, donde se tira la caña o el vermú del grifo; dando buenos platos a precio razonable. Junto con referencias clásicas de la capital y alrededores.

 

Links relacionados:

  • Rutas gastronómicas de la Comunidad de Madrid

http://www.madrid.org/cs/Satellite?c=CM_InfPractica_FA&cid=1142617592440&language=es&pagename=ComunidadMadrid%2FEstructura&pv=1142617759844

 

  • Canal cocina: Platos típicos de Madrid

http://canalcocina.es/actualidad/especiales/la-cocina-madrilena-platos-tipicos-de-madrid

 

  • La guía Miguelín

http://www.guiamiguelin.es/

  

Bibliografía: 

  • Miguel Casas Sánchez, “Guía Miguelín de la Comunidad de Madrid”, Ed. Del Azar, 2014
  • Wikipedia

 

“El condicionamiento operante” de Skinner y la venta

Etiquetas

, , ,

b_f__skinner_at_harvard_circa_1950

En una organización, es necesario identificar los diferentes tipos de personas para colocarlas en un grupo de trabajo donde puedan desarrollar sus necesidades, comportamientos y actitudes para que puedan lograr sus objetivos personales y los de la organización.

También el comportamiento del consumidor hay que tenerlo en cuenta en las tácticas del marketing: aumentando la fidelización y creando productos que le satisfagan mediante el conocimiento de sus necesidades.

 

Los orígenes filosóficos de los conceptos motivacionales:

  • comienzan en la Antigua Grecia, con Platón y Aristóteles,
  • con el dualismo cuerpo vs. Mente; con Santo Tomás de Aquino también seguimos con la dualidad (impulsos irracionales basados en el placer – cuerpo-, impulsos racionales basados en la voluntad – mente-).
  • Para Descartes comprender la motivación es comprender “la voluntad”, el cuerpo es el agente mecánico pasivo y la voluntad el agente inmaterial activo
  • Con Darwin surge el determinismo biológico, el instinto surge de la herencia genética y explica la conducta como algo adaptativo.
  • Para Freud toda conducta está motivada, su propósito es satisfacer las necesidades corporales.
  • Clark Leonard Hull (1884-1952) fue junto con Tolman el máximo representante del neoconductismo en los años treinta y cuarenta. Hull se integró en la investigación de laboratorio sobre el aprendizaje “teoría de la pulsión de Hull”: la motivación se puede predecir, la pulsión es función monotónica creciente de la necesidad corporal total, las respuestas que reducen la pulsión refuerzan el hábito (aprendizaje). La pulsión energizaba la conducta y el hábito la dirigía.

                E (conducta) = H (fuerza del hábito) x D (pulsión) x K (incentivo)

Sin pulsión (D=0) o sin hábito (H=0), no hay actividad conductual (E=0)

 

El neoconductismo de Hull y Tolman supuso la inclusión de variables intervinientes entre el estímulo y la respuesta.

Antecedente al trabajo de Skinner, es J.B. Watson, reconocido como el fundador del conductismo psicológico. En el último cuarto del siglo XIX se establecieron los primeros laboratorios psicológicos, y la Psicología comenzó a ser una ciencia empírica bajo William James en América.  Watson dio a la psicología una orientación nueva cuando en 1913 estableció que el objetivo de la psicología debía de ser la conducta:

  • El ambiente es mucho más importante que la herencia en la determinación de la conducta
  • La importancia de el condicionamiento de los reflejos en los procesos de aprendizaje, influenciado por Pavlov.

En la psicología experimental se vislumbraba un conductismo radical que tras la Segunda Guerra Mundial iba a sustituir a todos los demás conductismos. B.F. Skinner, un escritor convertido en psicólogo, había comenzado en 1931 a desarrollar un conductismo radical en la línea de Watson, pero con un nuevo conjunto de conceptos técnicos.

Burrhus Frederic Skinner, Susquehanna, 1904 – Cambridge, EE.UU., 1990) Psicólogo estadounidense, obtuvo el doctorado en psicología por la Universidad de Harvard en 1931, y continuó sus investigaciones con el profesor Crozier, en 1936.

Influido por los reflejos condicionados de Pavlov y por el conductismo de John B. Watson, Skinner intentó explicar la conducta como un conjunto de respuestas fisiológicas condicionadas por el entorno y profundizó en las posibilidades que ofrecía el control científico de la conducta mediante técnicas de refuerzo (premio de la conducta deseada).

Entre los experimentos más conocidos está el adiestramiento de palomas para jugar al pimpón, la llamada “caja de Skinner”, utilizada para el condicionamiento de los animales, o el diseño de un “entorno artificial” para los primeros años de vida de las personas.

El experimento de de la caja de Skinner: consiste en una caja completamente insonorizada con una luz uniforme, el animal se introduce en ella, en la caja hay una palanca que el animal (una rata), deberá presionar para conseguir el objetivo de alimentarse (refuerzo), se recoge información de aciertos y fallos, en relación con el programa de reforzamiento.

ED (luz o sonido) + ER (dispensador de comida) = RC (presionar palanca)

caja_de_skinner

La teoría del “Condicionamiento operante de Skinner”, llamado también instrumental y hoy en día experimental de la conducta (AEC), se puede definir como una teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el medio ambiente, basados en un método experimental.

Ante un estímulo, se produce una respuesta voluntaria, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se fortalezca o debilite. Skinner afirmará que “el condicionamiento operante modifica la conducta en la misma forma en que un escultor moldea un montón de arcilla”. Cuando la respuesta es positiva (consecuencias reforzadoras) se repetirá la conducta, si las consecuencias son negativas (consecuencias inhibidoras) no se repetirá.

Los programas de reforzamiento son reglas que muestran la pauta de aparición de respuestas seguidas de un reforzador, influyendo en el aprendizaje del individuo: estímulo-respuesta-reforzador:

  • refuerzo de la razón fija: se refuerza un comportamiento después de un número de respuestas, premio después 10 tareas realizadas RF10
  • refuerzo de razón variable: se refuerza al azar, después de un promedio, en una tarea con un promedio de 20, RV20
  • refuerzo de intervalo fijo: se refuerza un comportamiento después de un tiempo, IF1
  • refuerzo de intervalo variable: se refuerza un comportamiento en intervalos variables, pero en torno a un promedio, IV3

Estas tácticas en marketing, se basan en fidelizar a los clientes: tarjetas, premios, descuentos, etc.…

A parte del aprendizaje por reforzamiento hay otros:

Aprendizaje por evitación: el organismo adquiere una conducta nueva, aumentando la frecuencia de aparición para que no regrese un estímulo aversivo o desagradable.

Aprendizaje por superstición: De forma casual, una conducta reforzada o aversiva aumenta la frecuencia de aparición de alguna conducta.

Aprendizaje por castigo: aumenta la frecuencia de conductas que no son seguidas de estímulos aversivos o desagradables.

La publicidad, refuerza la conducta mediante premios o descuentos, reforzando la actitud beneficiosa para la empresa. Se asocian para el consumidor estímulos externos como una imagen o un sonido, relacionándolo con comida o placer, etc.…

 

Links relacionados: 

  • Conductismo UNED:

https://www.youtube.com/watch?v=nOy-4Zqckws 

  • Skinner:

https://www.youtube.com/watch?v=JtBGq2eAaXY

 

 

Bibliografía

. Tomas H. Leahey Elvira, “Historia de la Psicología”, Ed. Pearson Educación, 2009

. Carlos Santamaría, “Historia de la Psicología”, E. Ariel Psicología, 2009

. Leslie Stevenson, “Siete teorías de la Naturaleza Humana”, Ed. Cátedra, 1994

. B.F. Skinner, “Ciencia y conducta humana”, Ed. Fontanella,. 1974

. B.F. Skinner, “Más allá de la libertad y la dignidad”, Fontanella, 1972

. B.F. Skinner, “Walden Dos”, Ed. Fontanella, 1968

. Wikipedia

 

 

Gemelas cromosómicas: ¿gemelas o mellizas?

Etiquetas

, , , , , , , , , , , , , , , , , ,

twins-1147616_960_720

En enero ha sido compartido en Facebook con “1.000 me gusta” un extraño caso: Las pequeñas Kalani y Jarani  hijas de una pareja birracial dejaron a todos sorprendidos al nacer con distinto color de piel; las gemelas nacieron en Quincy, Illinois (Estados Unidos).

La madre de las pequeñas  declara: “tenemos unas gemelas cromosómicas. Kalani es blanca con los ojos azules y Jarani es más oscura con los ojos marrones”

Se trata de dos hermanas gemelas, con diferente tonalidad de piel; de madre blanca y padre de color. La madre ha tenido una doble ovulación que dio lugar a que dos espermatozoides fecundaran a los dos óvulos.

 

Se especula si es correcto llamarlas gemelas. Según el diccionario, los gemelos son hermanos nacidos del mismo parto. Las posibilidades que esto ocurra es uno de cada 5oo casos, son casos muy raros, son gemelos bivitelinos o bicigóticos concebidos mediante una doble ovulación de la madre. Los dos óvulos han sido fecundados por dos espermatozoides en el mismo ciclo, por tanto el tiempo de gestación es el mismo y los bebés comparten el útero materno, aunque no comparten bolsa amniótica, y lo más importante: tienen carga genética distinta, lo que se conoce como mellizos. Son dos gestaciones distintas llevándose a la vez.

La palabra “gemelo” deriva de la expresión latina “gemellus” (nacido al mismo tiempo), que se relaciona con la raíz indoeuropea “yem”. Se ha dejado de considerar de esa manera, la palabra “gemelos” ahora es utilizada para referirse a aquellos individuos cuya concepción ocurre a partir de la división de un mismo cigoto y son del mismo sexo, mientras que la palabra “mellizo” se refiere a aquellos embriones que provienen de la fertilización entre gametos distintos y pueden ser de diferentes sexos.

En los gemelos hay una bipartición durante la división celular donde los embriones son generados a partir de un solo cigoto, en los mellizos gametos distintos consiguen la fertilización simultáneamente. Raramente se puede producir polispermia (la fecundación de un óvulo por dos espermatozoides), dando lugar a gemelos semiidénticos, que tienen un alto grado de mosaicismo  y comparten la mitad de un mismo genoma.

 

  • Gemelos monocigóticos

Significa un solo cigoto o proveniente de un mismo cigoto, se originan los individuos por la bipartición celular de un cigoto, que da origen a dos embriones distintos, también llamados gemelos idénticos.

 

  • Gemelos monocigóticos por polispermia

Polispermia significa que más de un espermatozoide fecunda un óvulo, en este caso dos. Contará con sesenta y nueve cromosomas el cigoto. El resultado será un individuo que manifestará un alto grado de mosaicismo y/o quimerismo. Los gemelos monocigóticos no poseen un genoma exactamente igual, se llaman gemelos semi-idénticos. Esto es causado por recibir una nutrición desigual durante la gestación y/o la intervención epigenética después del nacimiento, las variaciones en el desarrollo de ambos puede cambiar sus apariencias durante el crecimiento. Pueden o no compartir el mismo género, en caso de ser de distinto género pueden ser o no similares en su fenotipo. Al ser fertilizado, el óvulo aporta un cromosoma adicional, de modo que se concibe un cigoto de cariotipo XXY. En la mayoría de los casos ambos organismos o personas presentan microquimerismo, es decir, poseen células de su gemelo dentro, las cuales son genéticamente del otro género.

 

  • Gemelos dicigóticos

Los individuos cuya gestación ocurre de manera simultánea y se originan por la fecundación de dos óvulos distintos por dos espermatozoides distintos dan como resultado individuos dicigóticos o  mellizos. Cuando más de un óvulo es liberado, en este caso dos. Puede proceder de un progenitor o de dos progenitores masculinos, en este último caso se llama “superfecundación” o “superfertilización”, en los seres humanos: liberándose más de un óvulo, uno de ellos resulta fecundado durante un acto sexual, luego, en un periodo de entre doce y cuarenta y ocho horas, el otro gameto resulta fecundado durante coito con un sujeto distinto al anterior. De modo que la mitad de la información genética de ambos cigotos proviene de un mismo ser, mientras que la otra mitad procede de dos individuos distintos.

 

Las diferencias de color de la piel que presentan los habitantes de las regiones del mundo se deben a la cantidad de pigmento que se encuentra en las células de la piel, que se conoce con el nombre de melanina.  Cuanto más oscura es la piel, menos es la agresión de los rayos ultravioletas. Así las personas que viven en zonas más cálidas, con más horas/día expuestos al sol, adquieren un color de piel más oscura, que las personas que habitan en regiones templadas o frías con poca incidencia de los rayos solares.

  • Homo sapiens, hace 150.000 años tenía la piel negra.
  • Con las migraciones hacia Asia y Europa, surgen diversas tonalidades de piel:
  1. Negroides: marrón o negro
  2. Caucásicos: piel más clara y/o blanca
  3. Mongoloides: piel amarillenta o marrón

 

El color de la piel está determinado por una herencia cuantitativa genética, por dos pares de genes (alelos), localizados en cromosomas no homólogos: un par aleatoriamente indicado por Aa y Bb.

A y B codifican mayor producción de melanina de la piel con respecto a  y b alelos recesivos, esto provoca una mayor presencia de “melanina” en los genes dominantes.

 

Gen A

A: añade melanina > a: no añade melanina

Gen B

B: añade melanina > b: no añade melanina

 

GENOTIPO                                 FENOTIPO

AABB…………………………………Negro

AABb o AaBB…………………….Mulato oscuro

AAbb o aaBB o AaBb…………Mulato medio

Aabb o aaBb……………………..Mulato claro

aabb………………………………….Blanco

herencia 

herencia-1

 

Links relacionados

  • Biología del color de la piel

https://www.youtube.com/watch?v=e6wyo2Y-vjQ

  • Genética: Ministerio de Educación  Proyecto Biosfera

http://recursos.cnice.mec.es/biosfera/alumno/2bachillerato/genetica/actividades.htm

Bibliografía

Blanco Rodríguez; Mª Bullon Sopelana, “Genética General”, Ed. Marban, 1994

Strickberger, “Genética”, Ed. Omega, 1978

Scientific American, “Facetas de la Genética”, Ed. Blume 1978

 

 

 

Psicología industrial: “Efecto Hawthorne”

Etiquetas

, , , ,

hawthorne

El “efecto Hawthorne” es uno de los descubrimientos psicológicos más conocidos. Éste demuestra la importancia de los factores subjetivos a la hora de determinar la eficacia de un trabajador industrial.

Tras la Primera Guerra Mundial, la psicología aplicada ganó importancia rápidamente, a medida que los psicólogos iban intentando solucionar los numerosos problemas provocados por la urbanización y la industrialización. Uno de los problemas consistía en adaptar a los trabajadores al repetitivo trabajo industrial y aumentar su productividad. La fábrica Hawthorne fue la sede del estudio más conocido de adaptación humana al trabajo, lugar del descubrimiento de lo que se denomina “el efecto Hawthorne”.

 

El término fue acuñado en 1955 por Henry A. Landsberger cuando analizaba antiguos experimentos realizados entre los años 1924 y 1932 Hawthorne Works (una fábrica de la Western Electric a las afueras de Chicago). Los experimentos fueron coordinados por Elton Mayo, con la colaboración de Frist Roethlisberger, la Universidad de Harvard y el ingeniero de la Western Electric, William Dickson.

 

En Hawthorne, en su departamento de montaje de redes de teléfono, trabajaban jóvenes empleadas que realizaban tareas simples y repetitivas que exigían gran rapidez. En la época una empleada montaba cinco relés cada seis minutos. La empresa no estaba interesada en aumentar la producción, sino en conocer mejor a sus empleados.

 

Llevó a cabo un experimento en la Western Electric Company que tenía como objetivo: “determinar la relación entre la satisfacción del hombre y la eficiencia de los obreros en la producción”. Dicho experimento se dividió en dos fases:

Primera fase:

A partir de 1925 la Academia Nacional de Ciencias de los Estados Unidos inició estudios para verificar la correlación entre productividad e iluminación en el área de trabajo. Se estudió el efecto de la iluminación sobre el rendimiento de los obreros. Se pudo comprobar que las condiciones psicológicas afectan la productividad, a mayor luz mayor productividad y viceversa. Llegó a la conclusión de que si se cambia el ambiente social se mejorarían las relaciones humanas pero el ambiente social del lugar de trabajo no es más que uno de los factores de interacción que influyen en la productividad.

 

Segunda fase:

Registro experimental del mantenimiento de las condiciones de trabajo y horario normales y se midió su ritmo de producción. Los obreros percibieron que sus mejores esfuerzos individuales se vieran reflejadas en sus salarios. Como resultado se introdujeron minutos de descanso por la mañana y por la tarde, y se estableció una semana de cinco días con el sábado libre para un aumento de producción.

La producción fue cuantificada de forma mecánica, contando el número de relés ensamblados que debían ser introducidos en un conducto.

Los cambios en las variables provocaron un aumento de la productividad incluso en aquellos en los que el cambio consistía en retornar a las condiciones originales.

Los investigadores verificaron que los resultados del experimento se vieron afectados por variables psicológicas. Intentaron eliminar o neutralizar el factor psicológico, extraño y no pertinente, lo que obligó a prolongar el experimento hasta 1932, cuando fue suspendido por la crisis de 1929.

La explicación sugerida fue que la mejora en la productividad no se debió a los cambios operados sobre los niveles de la iluminación sino al efecto motivador que supuso entre los obreros el saber que estaban siendo objeto de estudio. Se evaluaron:

  • la iluminación en el lugar de trabajo
  • mantenimiento y limpieza de las estaciones de trabajo
  • la eliminación de los obstáculos del suelo
  • el traslado y la recolocación de las distintas secciones

Todas estas alteraciones provocaron un aumento de la productividad durante un corto periodo de tiempo.

Mayo sostuvo que “el efecto” fue debido a la reacción de los trabajadores a la simpatía y el interés de los observadores: “the  fact somene was actually concerned about their workplace, and the opportunities this gave them to discuss changes before they took place; the desire to stand well with one´s fellows, the so-called human instinct of association, easily outwights the merely individual interest and the logic of reasoning upon which so many spurious principles of management are based”.

 

Conclusiones del experimento de Hawthorne:

  1. El nivel de producción está determinado por la capacidad física o fisiológica del trabajador, sin embargo las normas sociales y las expectativas que lo rodean también son factores importantes.
  2. El comportamiento del individuo se apoya por completo en el grupo.
  3. Los obreros que producían muy por encima o muy por debajo de la norma socialmente determinada, perdían el afecto y el respeto de los compañeros.
  4. En Hawthorne los investigadores se concentraron en los aspectos informales de la organización. En los grupos sociales informales, la estructura no siempre coincide con la formal. Los grupos informales tienen sus reglas de comportamiento, sus recompensas y sanciones sociales, sus objetivos, su escala de valores sociales, sus creencias y expectativas, y cada participante los asimila e integra en sus actitudes y su comportamiento.
  1. En la organización es muy importante tener en cuenta los aspectos y las decisiones que tienen los empleados para enfocar y establecer las relaciones humanas.
  2. Elton Mayo llegó a la conclusión de que a mayor interacción, mayor capacidad productiva.
  3. Cualquier cambio produce una reacción en el personal.
  4. Gracias a este experimento se pudo comprobar que cuando el trabajador se siente bien, es más productivo a la hora de trabajar.

 

Elton Mayo (1980, Australia-1949), fue un teórico social, sociólogo y psicólogo industrial especializado en teoría de las organizaciones y  las relaciones humanas.

Su interés primordial fue estudiar,  los efectos psicológicos que podían producir las condiciones físicas del trabajo en relación con la producción. Demostró que no existe cooperación del trabajador en los proyectos, si éstos no son escuchados, ni considerados por parte de sus superiores, es difícil y en ocasiones casi imposible llegar a objetivos fijados.

La idea principal de este sociólogo fue la de modificar el modelo mecánico del comportamiento organizacional para sustituirlo por otro que tuviese más en cuenta los sentimientos, actitudes, complejidad motivacional y otros aspectos del sujeto humano. Esto es conocido como “teoría de las relaciones humanas” o “escuela humanística de administración”.

Elton Mayo afirmó que el hombre no era una máquina y dándole incentivos el hombre rendirá en su trabajo.

 

Bibliografía:

  • Wikipedia
  • Thomas H. Leahey, “Historia de la Psicología”, Ed. Pearson, Prentice Hall, 2009
  • The economist, “The Hawthorne effect”, 2008 Nov
  • Mayo, E.; “The Social Problems of an Industrial Civilisation”, Routledge and Kegan Paul, 1949
  • Roethlisberger, F.J. and Dickson, W.J. “Management and the Worker: An Account of a Research Program Conducted by the Western Electric Company, Hawthorne Works, Chicago” Harvard University Press, 1939 

 

Links relacionados: 

  • Psicología U. Complutense “Técnicas de Análisis del comportamiento”

             http://www.ucm.es/tac/

 

  • The economist: “The Hawthorne effect”

            http://dsodown.mywebtext.org/pdf/s03-Hawthorne_Effect.pdf

 

 

 

 

 

 

 

 

Segmentación del mercado

Etiquetas

, , , , ,

segmentacion

Con una estrategia indiferenciada de marketing no es posible la fidelización. La importancia de “conocer al cliente” es la piedra angular en el proceso de la venta. La subdivisión de los clientes ayuda a que el proveedor de un producto o servicio identifique al público objetivo y envíe la comunicación adecuada acerca de su marca.

Philip Kotler, es un estadounidense, economista y especialista en marketing, titular de la cátedra de Marketing Internacional en la Northwestern University en Evaston, Illinois, define  “un segmento de mercado: como un grupo homogéneo de compradores en que se ha dividido el mercado, pudiendo ser cada grupo seleccionado como objetivo para un programa de marketing determinado”.

En los años 40 y 50 se hacía una estrategia general del marketing dirigida a todo el mercado. Con el paso del tiempo se han creado mercados heterogéneos en grupos de consumidores identificables, y es preciso hacer diferenciaciones, agrupándoles usando programas estadísticos.

La segmentación del mercado ofrece ventajas e inconvenientes para las empresas;

  1. Ventajas:
  • Permite a la empresa seleccionar los segmentos que se ajustan a sus puntos fuertes.
  • Permite desarrollar una estrategia comercial más ajustada al segmento objetivo.
  • Una mayor fidelidad hacia la marca, permitiendo un ajuste mejor del producto a las necesidades del segmento de los consumidores.
  1. Desventajas:
  • Elevación en los costes de fabricación y distribución, al aumentar el número de marcas y modelos, que a veces no puede ser compensado por las ventas.
  • Los consumidores pueden cambiar de segmento, comportándose unas veces en uno para en otros momentos pasar a otro.

 

 

PRINCIPALES CRITERIOS Y VARIABLES UTILIZADOS EN LA SEGMENTACIÓN DE MERCADOS

  1. Demográficos
  • Edad
  • Sexo
  • Tamaño de la familia
  • Estado Civil
  • Estatura de los individuos
  • Peso de los individuos, etc..

 

  1. Geográficos
  • Regiones o zonas: regiones Nielsen u otras
  • Tamaño del lugar de residencia
  • Hábitat: urbano, rural
  • Clima: cálido, templado

 

  1. Socioeconómicos
  • Nivel de ingresos
  • Clase social: alta, media-alta, media-media, media-baja, baja
  • Actividad profesional: profesión liberal, funcionario, empleado
  • Nivel de estudios: primarios, medios, universitarios
  • Religión
  • Nacionalidad

 

  1. Personalidad
  • Autonomía: independiente, dependiente
  • Gregarismo: extrovertido, introvertido
  • Conservadurismo: conservador, liberal
  • Autoritarismo: democrático, autoritario
  • Impulsividad: impulsivo, no impulsivo

 

  1. Criterios específicos
  • Nivel de consumo
  • Motivos de la compra: económicos, prestigios, seguridad
  • Fidelidad de la compra
  • Lugar de la compra: hipermercados, supermercados, autoservicios, tiendas tradicionales, economatos
  • Frecuencia de la compra: una vez a la semana, cada quince días
  • Conocimiento del producto: no lo conoce, lo conoce
  • Uso del producto
  • Sensibilidad al precio: sensible, muy sensible, poco sensible

 

La empresa debe seleccionar los segmentos objetivos y compararlos con sus puntos fuertes en relación con la competencia.

Tras el análisis de los segmentos objetivos se pueden seguir tres estrategias de segmentación:

  • Marketing concentrado: dedicar todos los esfuerzos a un único segmento de mercado, en el que se quiere ocupar una posición de liderazgo.

 

  • Marketing diferenciado: posicionar el producto en los segmentos de mercado más atractivos, realizando el plan de marketing para cada uno que mejor se adapte a las características del segmento.

 

  • Marketing indiferenciado: se considera el mercado como un todo uniforme, se estima que las diferencias existentes no son relevantes en términos de venta.

 

 

Bibliografía

  • Wikipedia 
  • Kotler, Philip “Fundamentos de marketing”, 8ª Ed. Pearson Prentice Hall, 2008 
  • Ignacio Cruz Roche, “Fundamentos de Marketing”, Ariel Economía, 1990
  • Enrique Ortega Martínez, La dirección de Marketing”, ESIC, 3ª Edición, 1987
  • Lendrive, J; Lindon, D; Y Lanfer, R; “Mercator, teoría y práctica del marketing”, Technibán, Madrid, 1976

 

 

Links relacionados: 

  • Philip Kotler: Marketing

https://www.youtube.com/watch?v=sR-qL7QdVZQ