Posts Tagged ‘Histograma’

Valores atípicos

Wednesday, September 23rd, 2015

Hola,

Cuando se analizan los datos de un proceso y encontramos valores atípicos, es muy tentador quitar estos valores para seguir con el análisis estadístico…

Si bien, desde un punto de vista estadístico, se puede hacer este tipo de acciones, nunca hay que olvidar que estos valores han surgido de un proceso, o sea que tienen una realidad, que son el síntoma de algo que ha pasado realmente.Gráfico de valores atípicos

Hay numerosas razones para que aparezcan valores anómalos: un fallo en lo que se está midiendo, en el sistema de medida, un error al pasar los datos al ordenador…

Pero en todo caso es síntoma de algo que está pasando y, como tal, se debería investigar para asegurarse de que no hay un problema grave detrás de estas medidas extrañas. Además, es importante guardar rastro de estos datos eliminados para poder realizar un análisis a largo plazo.

Detectar a tiempo y analizar los valores atípicos de nuestros procesos es importante. Técnicas gráficas sencillas permiten esas detecciones, y si queremos ir más allá a la hora de vigilar las características críticas de nuestros procesos, nos podemos plantear poner en marcha un control estadístico de procesos (SPC) con gráficos de control que, además de los valores anómalos, nos informaran de comportamientos no aleatorios.

Si quieres aprender más sobre las técnicas de análisis gráfica o los gráficos de control, puedes apuntarte a nuestro curso Minitab.

Hasta pronto,

Noël

Curso Green Belt – Barcelona – Octubre 2015

Monday, June 29th, 2015

Hola,

¿Quieres aprender a mejorar los procesos de tu empresa de forma pautada y eficiente?

El curso de Green Belt 6 Sigma es para ti.

Aprenderás:

  • Lo que significa 6 Sigma
  • Como usar la metodología DMAIC
  • Herramientas de calidad, técnicas estadísticas básicas y representaciones gráficas para tomar decisiones en base a datos
  • Cómo asegurar la obtención de beneficios relevantes para tu empresa

El 6 Sigma es una forma de trabajar que antepone la toma de decisión basada en datos medidos correctamente ante las “certezas” que podemos tener sobre un tema concreto. Si bien esas “certezas” se basan en nuestra experiencia, que es muy valiosa y útil, nos impiden, a veces, ver la realidad: no hace tanto, pensábamos que la tierra era plana…

Trabajar en equipo con datos - CaletecNuestro mundo es cada vez más “científico” y el método intuitivo, el de la experiencia, ya no es suficiente para mejorar drásticamente.

Los datos están presentes en las empresas desde hace muchos años, pero nos encontramos que no son el fundamento principal para la toma de decisiones.

El ejemplo más obvio que puedo encontrar para confirmar lo que avanzo es la falta de validación de los sistemas de medida. ¿Cuántas empresas miden su producción sin tener hecho ningún estudio R&R (Repetibilidad y Reproducibilidad)?

En el curso de Green Belt aprenderás porque es importante y porque, a pesar de tener todos los aparatos calibrados, hay que hacer estudios R&R.

Y también aprenderás muchas más cosas que te permitirán tomar tus decisiones basándote en datos rigurosamente medidos.

Te esperamos el próximo 20 de octubre para empezar el programa del curso Green Belt 6 Sgima.

Hasta pronto,

Noël

Claves de 6 Sigma

Wednesday, July 25th, 2012

To be or not to be… 6 Sigma… That is the question.

Todos deseamos lo mismo para nuestras empresas:

  • Reducir coste de empresa
  • Satisfacción de cliente
  • Retención de cliente
  • Mejor calidad de nuestros productos o servicios
  • Ganar nuevos clientes
  • Mejorar la atención y servicio a clientes
  • Tener mejores servicios o productos que la competencia

Esta lista no es exhaustiva y cada cual tiene la suya con sus prioridades, pero hay una constante: queremos y necesitamos MEJORAR.
Una forma de hacerlo es usando la metodología Seis Sigma. Pero ¿Qué es el Seis Sigma?
Para ayudar a entender como implementar Seis Sigma en su empresa os propongo dos libros:

Libros Las claves de 6 Sigma y Las claves prácticas de 6 Sigma

Ambos libros escrito por Peter Pande, Robert Neuman y Roland Cavanagh, editados por McGraw-Hill.

En “Las claves de Seis Sigma”, se explica como empresas como Telefónica, Motorola, GE y otras compañías han implantado la metodología Six Sigma para mejorar sus procesos, productos y servicios, aumentando sus beneficios.

Este libro aborda los retos y las estrategias de implantación presentando los pensamientos, testimonios y ejemplos de ejecutivos y directivos que utilizan Seis Sigma en sus organizaciones.

“Las claves Prácticas de Seis Sigma” es un libro que ofrece más detalles desde la selección de proyectos 6 Sigma hasta su ejecución basada en la metodología DMAIC (o DMAMC). Todos los equipos de proyectos Seis Sigma pueden usar este libro como recordatorio de las tareas y métodos de trabajo para mejorar la calidad de sus procesos buscando la causa raíz de los problemas y basando las decisiones en datos.

Si queréis más detalles sobre estos libros, no dudéis en pasaros por nuestra tienda Seis Sigma, Lean y Kaizen.

Hasta pronto
Sandrine

Software Minitab y 6 Sigma

Tuesday, July 17th, 2012

Tomar decisiones en base a datos, que deben ser recogidos y analizados de la forma adecuada es uno de los aspectos clave de los programas de mejora Seis Sigma

El análisis de los datos es mucho más cómodo y rápido si se utiliza un paquete de software estadístico, aunque una hoja de cálculo también puede ser suficiente en muchos casos.

Entre los muchos paquetes de software estadístico existentes en el mercado, Minitab combina muy bien la facilidad de uso con una amplia gama de posibilidades de análisis, muchas de ellas específicamente orientadas al de control y mejora de la calidad.

En los últimos años se ha convertido en el paquete de software estadístico de referencia y el más utilizado en los programas de mejora Seis Sigma.

Es la razón por la cual utilizamos el software Minitab en todos nuestros cursos 6 Sigma. Se puede descargar la versión demo de Minitab (30 días de duración) y aprender a utilizarlo adquiriendo el libro “Estadística con Minitab” que combina explicaciones sintéticas y ejemplos muy prácticos para el análisis de datos (Diseños de experimentos, estudios R&R, Estudios de capacidad – indices Cp Cpk,…) y la realización de representaciones gráficas (Histogramas, Pareto, correlación).

Estadística con Minitab

El temario del libro es el siguiente por si le puede resultar interesante consultarlo:

BLOQUE I: INTRODUCCIÓN. TÉCNICAS GRÁFICAS

  • Primer vistazo Gráficos para una variable
  • Diagramas de Pareto y causa-efecto
  • Gráficos de dispersión
  • Gráficos con tres dimensiones
  • Casos Prácticos del bloque I

BLOQUE II: CONTRASTE DE HIPÓTESIS. OMPARACIÓN DE TRATAMIENTOS

  • Números aleatorios y siguiendo un patrón
  • Cálculo de probabilidades
  • Contraste de hipótesis.
  • Test de Normalidad
  • Comparación de dos medias, dos varianzas o dos proporciones
  • Comparación de más de dos medias (análisis de la varianza)
  • Casos Prácticos del bloque II

BLOQUE III: ESTUDIOS R&R. ESTUDIOS DE CAPACIDAD

  • Estudio del sistema de medida (R&R)
  • Estudios de capacidad para variables (índices Cp, Cpk)
  • Estudios de capacidad para atributos
  • Casos prácticos del bloque III

BLOQUE IV: GRÁFICOS MULTI-VARI. CONTROL ESTADÍSTICO DE PROCESOS

  • Gráficos Multi-Vari
  • Gráficos de control para variables I: Observaciones individuales
  • Gráficos de control para variables II: Medias y rangos
  • Gráficos de control para atributos
  • Casos prácticos del bloque IV

BLOQUE V: REGRESIÓN. ANÁLISIS MULTIVARIANTE

  • Correlación y regresión simple
  • Regresión múltiple. Análisis multivariante
  • Casos prácticos del bloque V

BLOQUE VI: DISEÑO DE EXPERIMENTOS. FIABILIDAD

  • Selección del plan de experimentación utilizando un diseño factorial
  • Análisis e interpretación de los resultados de un diseño factorial
  • Metodología de la superficie de respuesta. Fiabilidad
  • Casos prácticos del bloque VI

Hasta pronto

Sandrine

Histogramas y normalidad de los datos

Wednesday, July 11th, 2012

La mayoría de los datos que representan nuestros procesos se ajustan a una distribución normal. Cuando hacemos el histograma de nuestros datos, nos esperamos ver que esta distribución tiene una curva suave conocida como la campana de Gauss. Pero a veces los histogramas (o diagramas de frecuencia) presentan unas formas peculiares.

En el gráfico siguiente podéis apreciar 4 histogramas generados con 20 datos procedentes de una distribución normal estándar (media = 0, desviación estándar = 1)

Histograma de una distribución normal estándar con 20 datos

Histograma de una distribución normal estándar con 20 datos

A pesar de ser normales, estos histogramas podrían llevarnos a falsas conclusiones sobre la normalidad de los datos.

De hecho, con solo 20 datos, un diagrama de puntos podría ser más adecuado para ver la dispersión de los datos (con toda su granularidad).

Diagrama de puntos - 20 datos

Diagrama de puntos - 20 datos

En cambio si aumentamos el nº de datos, la forma del histograma se aproxima a la campana de Gauss. A continuación, se muestran 4 histogramas realizados con unos datos procedentes de un distribución normal estándar pero variando la cantidad de datos.

Histogramas de una distribución normal

Histogramas de una distribución normal

Los histogramas son una buena representación gráfica para ver la dispersión de los datos pero es preferible un diagrama de puntos cuando la cantidad de datos no sobrepasa los 20.

Aprovecho este post para recordar que la única manera de saber si unos datos se ajustan a una distribución normal es hacer un test de normalidad. El diagrama de probabilidad de Minitab nos proporciona la representación de los datos con una recta de Henry y nos da el p-valor. De esta forma, con un p-valor > 0.05, podemos afirmar con un 95% de confianza que nuestros datos se ajustan a una distribución normal.

Sandrine

Estadística con Minitab: Aplicaciones para el control y la mejora de la calidad de Pere Grima, Lluís Marco y Xavier Tort-Martorell

Friday, July 6th, 2012

Libro Estadística con Minitab

Estadística con Minitab es un libro que permite aprender como utilizar el programa Minitab para los análisis estadísticos de datos enfocados a la mejora de calidad y optimización de procesos. Me parece un libro eminentemente práctico y lo recomiendo a todas las personas que quieren empezar a sacarles provecho a sus datos gracias a este Software.

Utilizo este programa en todos los cursos 6 sigma (Green Belt, Black Belt, Champion) y de estadística ya que me parece muy adaptado a las necesidades de las empresas en aprender como funcionan sus procesos y en resolver problemas basando sus decisiones en datos.

En primer lugar explica el funcionamiento básico de Minitab y como obtener la estadística descriptiva de los datos (media, mediana, rango, desviación estándar, percentiles,…) y realizar unas representaciones gráficas muy útiles tales como:

  • Gráfico cronológico para entender la evolución de los datos en el tiempo (tendencias, ciclos, variabilidad…)
  • Histogramas para apreciar la forma y la dispersión de los datos
  • Diagrama de probabilidad (recta de Henry) para comprobar si unos datos se ajustan a una distribución normal (campana de Gauss)
  • Box-plot o diagrama de caja y bigotes
  • Diagramas de correlación para ver la relación entre dos variables continuas,…

Pero por otra parte, también explica, con numerosos ejemplos, como utilizar el software Minitab para:

  • Estudios de capacidad (índices Cp, Cpk)
  • MSA – Validar los sistemas de medida (estudios R&R)
  • El análisis de regresión
  • Los diseños de experimentos (DOE)
  • Control estadístico de proceso (SPC)

Una buena manera de empezar a ver como utilizar los datos y lo que nos pueden aportar.

Si os interesa, podéis adquirir este libro en la tienda online de Caletec enfocada a la optimización de procesos.

Información y Datos

Wednesday, November 16th, 2011

En toda empresa, se recogen y archivan una gran cantidad de datos y, sin embargo, cuando se quiere solucionar problemas, necesitamos sacar una información en “forma de números” y nos damos cuenta de que:

  • No disponemos de los datos para realizar un diagnóstico seguro
  • Los datos son incompletos
  • Los datos no son fiables

Joseph M. Juran, reconocido como uno de los grandes gurú de la calidad,  aclara esta aparente paradoja explicando que los datos representan la concreción numérica de hechos o realidades, mientras que la  información debe entenderse como la respuesta a preguntas previamente planteadas.

Datos  =  Hechos, realidades
Información = Respuestas a preguntas

La resolución de problemas exige disponer de una cierta información (respuestas a preguntas del tipo, ¿Con qué frecuencia se presenta el problema?, ¿En qué circunstancias se presenta?, ¿Cuánto tiempo se tarda en hacer el trabajo?, etc…). Pero, mientras que la buena información siempre está basada en datos, un determinado volumen de datos, por grande que sea, no necesariamente aporta la información que se precisa para resolver el problema.

La “información” incluye “datos”.
Los “datos” no necesariamente incluyen “información”.

Datos e Información

Así pues, la clave no está en cómo recoger datos, sino en cómo obtener información que resulte útil.

El proceso de generar información puede resumirse en las siguientes etapas:

  1. Formular claramente las preguntas que se desea contestar para evitar recoger unos datos totalmente correctos pero que no permiten contestar nuestras preguntas.
  2. Recopilar datos relativos a la cuestión planteada teniendo el análisis de datos en mente. Esto significa que todos los elementos de estratificación posibles deben aparecer en la hoja de recogida de datos (turnos, agencias, región, lote, familia de producto, etc…)
  3. Presentar los datos de forma adecuada para poner claramente de manifiesto cuál es la respuesta a la pregunta. En este sentido las representaciones gráficas de los datos individuales suelen ser de gran utilidad (gráfico de serie de tiempo, histograma, diagrama de probabilidad; Box Plot;…)

Hasta Pronto

Sandrine

Origen de la distribución normal (su historia)

Sunday, May 8th, 2011

La distribución normal se conoce como la curva de Gauss o campana de Gauss, famoso matemático alemán del siglo 19.

Realmente, fue un trabajo de más de 200 años para descubrirla y establecer su ecuación. En este post, explico la historia de la distribución más conocida de la estadística: la ley normal.

Su origen viene de la observación de un estadístico francés del siglo 18, Abraham de Moivre, que, entre otras cosas, actuaba como consultor para temas de juegos. Observó, que al lanzar una moneda, la probabilidad de obtener “cara” (o “cruz”) en N tirada tenía una representación gráfica con una curva suave a medida que N se hacía grande. En el gráfico presentado a continuación, la altura de cada barra representa la probabilidad de que ocurra el evento (sale “cara” al lanzar una moneda) de N veces que lanzamos la moneda (hemos cogido, N=2; N=4; N=12). Si la moneda no está trucada, la probabilidad de que salga “cara” al lanzarla es del 50% (p=0,5). Este fenómeno sigue una distribución conocida como la Binomial.

Distribución Binomial hacia la Distribución Normal

De Moivre explicó que si pudiéramos encontrar una ecuación para esta curva, solucionaríamos más fácilmente el cálculo de probabilidades de que aparezca “x” o más “cara” a lanzar N veces una moneda. Y eso fue uno de sus trabajos.

Distribución Normal

La gracia reside en que esta peculiar forma de campana también se detectó, en el siglo 17, por Galileo en el análisis de errores de medición de observaciones astronómicas; errores atribuibles a la instrumentación y a los observadores. Notó que estos errores eran simétricos y que los pequeños errores eran más frecuentes que los errores grandes. De ahí, se plantearon varias hipótesis sobre la distribución de los errores de medición.

Fue solo a principio del siglo 19th que se descubrió que estos errores seguían una distribución normal. Dos matemáticos establecieron de manera independiente su fórmula: Adrian en 1808 y Gauss en 1809 que al final dio su nombre a la más famosa de las distribuciones estadísticas ya que numerosos fenómenos naturales se ajustan a ella y que presenta unas  propiedades sumamente interesantes.

Gauss y la distribución normal en un billete de 10 marcos alemanes

Sandrine

El histograma “engañososo”

Friday, August 7th, 2009

Esta semana, me encontré de nuevo con un tipo de histograma que llamo el “engañoso”. La razón por la cual le doy este calificativo es porqué proviene de unos datos recogidos de manera que todos tienen que cumplir con la especificación.

En el ejemplo que enseño a continuación, se trata de una longitud de una pieza de plástico inyectada. El límite de tolerancia inferior es de 33,08mm y se mide con un pie de rei. A priori, en la empresa, todos estaban de acuerdo por decir que esta característica no daba problemas pero mirando el histograma y la representación en papel probabilístico normal vimos que la realidad era otra.

Diagrama de probabilidad "engañoso"

En este gráfico (diagrama de probabilidad), todos los datos deberían encontrarse más o menos alineados en una recta (la famosa recta de Henry). Se observa una bifurcación en la parte inferior de la recta indicando que no existen (teóricamente) datos por debajo de un determinado valor. Este fenómeno se encuentra justo en el límite inferior de tolerancia.

En el histograma, se ve claramente que la barra de frecuencia de los datos situados en el límite inferior es anormalmente más alta. Tratándose de una longitud, los datos deberían seguir una distribución normal.

Histograma "engañoso"

Estas representaciones gráficas de los datos nos enseñan claramente que el problema proviene de la manera de registrar los datos. Se miden las piezas pero en caso de obtener una medición por debajo del límite inferior, se registra un dato correspondiente a la propia tolerancia.

Me imagino que existen seguramente muchas “buenas” razones por hacerlo (evitar el papeleo relacionado con las no-conformidades, enmascarar problemas del proceso, poder asegurar que cumplimos con las especificaciones del cliente…). Pero no olvidemos que los datos nos pueden ayudar a detectar donde se encuentran los problemas y mejorar nuestros procesos. Si registramos datos falsos, nos estamos engañando y la tarea de optimización de procesos es bastante más compleja.

Hasta Pronto

Sandrine