Posts Tagged ‘Diagrama de probabilidad’

Curso Green Belt 6 Sigma en Barcelona (empieza el 26 de febrero del 2014)

Tuesday, December 10th, 2013

La metodología DMAIC 6 Sigma representa la manera más eficiente de resolver los problemas de calidad dentro de la empresa basando las decisiones en datos rigurosamente medidos y analizados hasta encontrar la causa raíz.

La formación Green Belt 6 Sigma de Caletec integra la teoría y la aplicación práctica de las herramientas Seis Sigma para la optimización de procesos y la mejora de la calidad siguiendo los pasos de la metodología DMAIC.

Se trata de un curso eminentemente práctico con numerosos ejemplos y juegos didácticos para asentar los conceptos abordados. Además, se propone a cada participante iniciar un proyecto 6 Sigma para aumentar la eficiencia de su empresa y maximizar la satisfacción de sus clientes dándole apoyo durante la formación.

En este curso, utilizamos el software Minitab para la realización de las actividades prácticas de análisis de datos y representaciones gráficas.

Curso Green Belt 6 Sigma

También damos la posibilidad a nuestros alumnos obtener la certificación Green Belt 6 Sigma siempre y cuando se cumplen los requisitos establecidos:

  • 80% de asistencia al curso Green Belt 6 Sigma
  • Obtener una puntuación de mínimo 70% a un test de evaluación de los conocimientos sobre la metodología DMAIC y las herramientas de calidad y técnicas estadísticas básicas utilizadas en los proyectos 6 sigma
  • La presentación de un proyecto 6 Sigma en su fase como mínimo de analizar (avanzado) para validar la puesta en práctica de los conocimientos adquiridos.

Si quiere más información sobre este curso, puedes visitar nuestra página web http://www.cursos6sigma.com/cursos/green_belt/ o solicitarla por mail a info@caletec.com o llamando al 93 181 01 33. Si lo deseas también te informaremos sobre la certificación Green Belt 6 Sigma.

Hasta pronto
Sandrine

Claves de 6 Sigma

Wednesday, July 25th, 2012

To be or not to be… 6 Sigma… That is the question.

Todos deseamos lo mismo para nuestras empresas:

  • Reducir coste de empresa
  • Satisfacción de cliente
  • Retención de cliente
  • Mejor calidad de nuestros productos o servicios
  • Ganar nuevos clientes
  • Mejorar la atención y servicio a clientes
  • Tener mejores servicios o productos que la competencia

Esta lista no es exhaustiva y cada cual tiene la suya con sus prioridades, pero hay una constante: queremos y necesitamos MEJORAR.
Una forma de hacerlo es usando la metodología Seis Sigma. Pero ¿Qué es el Seis Sigma?
Para ayudar a entender como implementar Seis Sigma en su empresa os propongo dos libros:

Libros Las claves de 6 Sigma y Las claves prácticas de 6 Sigma

Ambos libros escrito por Peter Pande, Robert Neuman y Roland Cavanagh, editados por McGraw-Hill.

En “Las claves de Seis Sigma”, se explica como empresas como Telefónica, Motorola, GE y otras compañías han implantado la metodología Six Sigma para mejorar sus procesos, productos y servicios, aumentando sus beneficios.

Este libro aborda los retos y las estrategias de implantación presentando los pensamientos, testimonios y ejemplos de ejecutivos y directivos que utilizan Seis Sigma en sus organizaciones.

“Las claves Prácticas de Seis Sigma” es un libro que ofrece más detalles desde la selección de proyectos 6 Sigma hasta su ejecución basada en la metodología DMAIC (o DMAMC). Todos los equipos de proyectos Seis Sigma pueden usar este libro como recordatorio de las tareas y métodos de trabajo para mejorar la calidad de sus procesos buscando la causa raíz de los problemas y basando las decisiones en datos.

Si queréis más detalles sobre estos libros, no dudéis en pasaros por nuestra tienda Seis Sigma, Lean y Kaizen.

Hasta pronto
Sandrine

Software Minitab y 6 Sigma

Tuesday, July 17th, 2012

Tomar decisiones en base a datos, que deben ser recogidos y analizados de la forma adecuada es uno de los aspectos clave de los programas de mejora Seis Sigma

El análisis de los datos es mucho más cómodo y rápido si se utiliza un paquete de software estadístico, aunque una hoja de cálculo también puede ser suficiente en muchos casos.

Entre los muchos paquetes de software estadístico existentes en el mercado, Minitab combina muy bien la facilidad de uso con una amplia gama de posibilidades de análisis, muchas de ellas específicamente orientadas al de control y mejora de la calidad.

En los últimos años se ha convertido en el paquete de software estadístico de referencia y el más utilizado en los programas de mejora Seis Sigma.

Es la razón por la cual utilizamos el software Minitab en todos nuestros cursos 6 Sigma. Se puede descargar la versión demo de Minitab (30 días de duración) y aprender a utilizarlo adquiriendo el libro “Estadística con Minitab” que combina explicaciones sintéticas y ejemplos muy prácticos para el análisis de datos (Diseños de experimentos, estudios R&R, Estudios de capacidad – indices Cp Cpk,…) y la realización de representaciones gráficas (Histogramas, Pareto, correlación).

Estadística con Minitab

El temario del libro es el siguiente por si le puede resultar interesante consultarlo:

BLOQUE I: INTRODUCCIÓN. TÉCNICAS GRÁFICAS

  • Primer vistazo Gráficos para una variable
  • Diagramas de Pareto y causa-efecto
  • Gráficos de dispersión
  • Gráficos con tres dimensiones
  • Casos Prácticos del bloque I

BLOQUE II: CONTRASTE DE HIPÓTESIS. OMPARACIÓN DE TRATAMIENTOS

  • Números aleatorios y siguiendo un patrón
  • Cálculo de probabilidades
  • Contraste de hipótesis.
  • Test de Normalidad
  • Comparación de dos medias, dos varianzas o dos proporciones
  • Comparación de más de dos medias (análisis de la varianza)
  • Casos Prácticos del bloque II

BLOQUE III: ESTUDIOS R&R. ESTUDIOS DE CAPACIDAD

  • Estudio del sistema de medida (R&R)
  • Estudios de capacidad para variables (índices Cp, Cpk)
  • Estudios de capacidad para atributos
  • Casos prácticos del bloque III

BLOQUE IV: GRÁFICOS MULTI-VARI. CONTROL ESTADÍSTICO DE PROCESOS

  • Gráficos Multi-Vari
  • Gráficos de control para variables I: Observaciones individuales
  • Gráficos de control para variables II: Medias y rangos
  • Gráficos de control para atributos
  • Casos prácticos del bloque IV

BLOQUE V: REGRESIÓN. ANÁLISIS MULTIVARIANTE

  • Correlación y regresión simple
  • Regresión múltiple. Análisis multivariante
  • Casos prácticos del bloque V

BLOQUE VI: DISEÑO DE EXPERIMENTOS. FIABILIDAD

  • Selección del plan de experimentación utilizando un diseño factorial
  • Análisis e interpretación de los resultados de un diseño factorial
  • Metodología de la superficie de respuesta. Fiabilidad
  • Casos prácticos del bloque VI

Hasta pronto

Sandrine

Histogramas y normalidad de los datos

Wednesday, July 11th, 2012

La mayoría de los datos que representan nuestros procesos se ajustan a una distribución normal. Cuando hacemos el histograma de nuestros datos, nos esperamos ver que esta distribución tiene una curva suave conocida como la campana de Gauss. Pero a veces los histogramas (o diagramas de frecuencia) presentan unas formas peculiares.

En el gráfico siguiente podéis apreciar 4 histogramas generados con 20 datos procedentes de una distribución normal estándar (media = 0, desviación estándar = 1)

Histograma de una distribución normal estándar con 20 datos

Histograma de una distribución normal estándar con 20 datos

A pesar de ser normales, estos histogramas podrían llevarnos a falsas conclusiones sobre la normalidad de los datos.

De hecho, con solo 20 datos, un diagrama de puntos podría ser más adecuado para ver la dispersión de los datos (con toda su granularidad).

Diagrama de puntos - 20 datos

Diagrama de puntos - 20 datos

En cambio si aumentamos el nº de datos, la forma del histograma se aproxima a la campana de Gauss. A continuación, se muestran 4 histogramas realizados con unos datos procedentes de un distribución normal estándar pero variando la cantidad de datos.

Histogramas de una distribución normal

Histogramas de una distribución normal

Los histogramas son una buena representación gráfica para ver la dispersión de los datos pero es preferible un diagrama de puntos cuando la cantidad de datos no sobrepasa los 20.

Aprovecho este post para recordar que la única manera de saber si unos datos se ajustan a una distribución normal es hacer un test de normalidad. El diagrama de probabilidad de Minitab nos proporciona la representación de los datos con una recta de Henry y nos da el p-valor. De esta forma, con un p-valor > 0.05, podemos afirmar con un 95% de confianza que nuestros datos se ajustan a una distribución normal.

Sandrine

Estadística con Minitab: Aplicaciones para el control y la mejora de la calidad de Pere Grima, Lluís Marco y Xavier Tort-Martorell

Friday, July 6th, 2012

Libro Estadística con Minitab

Estadística con Minitab es un libro que permite aprender como utilizar el programa Minitab para los análisis estadísticos de datos enfocados a la mejora de calidad y optimización de procesos. Me parece un libro eminentemente práctico y lo recomiendo a todas las personas que quieren empezar a sacarles provecho a sus datos gracias a este Software.

Utilizo este programa en todos los cursos 6 sigma (Green Belt, Black Belt, Champion) y de estadística ya que me parece muy adaptado a las necesidades de las empresas en aprender como funcionan sus procesos y en resolver problemas basando sus decisiones en datos.

En primer lugar explica el funcionamiento básico de Minitab y como obtener la estadística descriptiva de los datos (media, mediana, rango, desviación estándar, percentiles,…) y realizar unas representaciones gráficas muy útiles tales como:

  • Gráfico cronológico para entender la evolución de los datos en el tiempo (tendencias, ciclos, variabilidad…)
  • Histogramas para apreciar la forma y la dispersión de los datos
  • Diagrama de probabilidad (recta de Henry) para comprobar si unos datos se ajustan a una distribución normal (campana de Gauss)
  • Box-plot o diagrama de caja y bigotes
  • Diagramas de correlación para ver la relación entre dos variables continuas,…

Pero por otra parte, también explica, con numerosos ejemplos, como utilizar el software Minitab para:

  • Estudios de capacidad (índices Cp, Cpk)
  • MSA – Validar los sistemas de medida (estudios R&R)
  • El análisis de regresión
  • Los diseños de experimentos (DOE)
  • Control estadístico de proceso (SPC)

Una buena manera de empezar a ver como utilizar los datos y lo que nos pueden aportar.

Si os interesa, podéis adquirir este libro en la tienda online de Caletec enfocada a la optimización de procesos.

Información y Datos

Wednesday, November 16th, 2011

En toda empresa, se recogen y archivan una gran cantidad de datos y, sin embargo, cuando se quiere solucionar problemas, necesitamos sacar una información en “forma de números” y nos damos cuenta de que:

  • No disponemos de los datos para realizar un diagnóstico seguro
  • Los datos son incompletos
  • Los datos no son fiables

Joseph M. Juran, reconocido como uno de los grandes gurú de la calidad,  aclara esta aparente paradoja explicando que los datos representan la concreción numérica de hechos o realidades, mientras que la  información debe entenderse como la respuesta a preguntas previamente planteadas.

Datos  =  Hechos, realidades
Información = Respuestas a preguntas

La resolución de problemas exige disponer de una cierta información (respuestas a preguntas del tipo, ¿Con qué frecuencia se presenta el problema?, ¿En qué circunstancias se presenta?, ¿Cuánto tiempo se tarda en hacer el trabajo?, etc…). Pero, mientras que la buena información siempre está basada en datos, un determinado volumen de datos, por grande que sea, no necesariamente aporta la información que se precisa para resolver el problema.

La “información” incluye “datos”.
Los “datos” no necesariamente incluyen “información”.

Datos e Información

Así pues, la clave no está en cómo recoger datos, sino en cómo obtener información que resulte útil.

El proceso de generar información puede resumirse en las siguientes etapas:

  1. Formular claramente las preguntas que se desea contestar para evitar recoger unos datos totalmente correctos pero que no permiten contestar nuestras preguntas.
  2. Recopilar datos relativos a la cuestión planteada teniendo el análisis de datos en mente. Esto significa que todos los elementos de estratificación posibles deben aparecer en la hoja de recogida de datos (turnos, agencias, región, lote, familia de producto, etc…)
  3. Presentar los datos de forma adecuada para poner claramente de manifiesto cuál es la respuesta a la pregunta. En este sentido las representaciones gráficas de los datos individuales suelen ser de gran utilidad (gráfico de serie de tiempo, histograma, diagrama de probabilidad; Box Plot;…)

Hasta Pronto

Sandrine

Monográfico Índices de Capacidad Cp Cpk

Wednesday, February 17th, 2010

El pasado 12 de febrero, tuvo lugar el curso monográfico sobre los estudios de capacidad y el cálculo de los índices Cp Cpk.

En primer lugar, recordamos entre todos cuales son los parámetros que permiten caracterizar un conjunto de datos (media, mediana, moda, rango, desviación estándar, algunos datos de posición como los cuartiles, etc…).   Por otra parte, vimos como los gráficos cronológicos, los histogramas y la recta de Henry (diagrama de probabilidad) podían enseñarnos unos síntomas de comportamiento de los datos: tendencia ascendente, presencia de dos poblaciones (bimodal), aumento de la variabilidad, etc…

Todos estos trabajos permitieron llegar a la realización de los estudios de capacidad y al cálculo de los índices de capacidad Cp y Cpk pero teniendo en cuenta de que los dos pasos preliminares imprescindibles a estos estudios son:

  1. Comprobación de la normalidad de los datos
  2. Comprobación de la estabilidad de los datos

Los índices de capacidad comparan la voz del cliente (rango de tolerancias) con la voz del proceso (“ancho” de la campana de Gauss = 6*desviación estándar). Ita y Montse de una empresa farmacéutica, Nuria de un laboratorio de ensayos y Alberto del sector porcino realizaron una representación grafica y simularon distintos casos posibles: proceso capaz o no, descentramiento, etc…

Estudios de Capacidad

Explicamos la diferencia entre los estudios a corto y largo plazo (Cp, Cpk, Pp, Ppk) y la significación de unos números famosos para los índices de capacidad: 1,33; 1,67; 2…

Realizamos unos ejemplos prácticos con el software MINITAB y al final de la formación, los participantes presentaron sus propios datos a modo de ejemplos reales y prácticos. En el caso de Alberto, nos encontramos con un grafico cronológico con unos problemas de estabilidad. En efecto, se ve perfectamente la aparición de una causa especial: de repente, los valores aparecen más altos y la variabilidad es más importante.

Grafico Cronologico con problema de estabilidad

Agradezco la participación y el buen humor de Ita, Montse, Nuria y Alberto durante el curso.

Aprovecho también este post para desear lo mejor a Alberto, futuro Black Belt 6 Sigma y muy motivado en la utilización de la metodología DMAIC para la optimización de procesos basada en hechos y datos.

Hasta Pronto

Sandrine

“Mis datos no son normales”

Friday, November 20th, 2009

Cuando empezamos el análisis de un conjunto de datos, uno de los primeros pasos es la realización de un test de normalidad para saber si estamos en presencia de una distribución normal. En MINITAB, este test de normalidad se presenta mediante un diagrama de probabilidad (probability plot) en el cual se ve reflejada la recta de Henry y unos parámetros que nos ayudan a decidir si podemos aceptar, o no, la hipótesis de normalidad de los datos (el famoso p-valor o p-value superior a 0,05).

El hecho de encontrarse en presencia de una distribución normal nos ofrece un abanico de herramientas estadísticas de fácil comprensión y manejo.

¿Y si los datos no son normales????

Lo primero de todo es preguntarse porqué no lo son. Si estamos trabajando con unos datos que deberían seguir una distribución normal, lo primero de todo es investigar esta falta de normalidad. Me encuentro demasiadas veces con este comentario:

“Mis datos no son normales por lo que tendríamos que transformarlos mediante una transformación BOX COX o de Jonhson”.

Me gustaría que hagamos un juego. En cada uno de los diagramas de probabilidad presentados a continuación, la aparente “falta de normalidad” tiene su explicación.

Recta de Henry - Diagrama de probabilidad

Os propongo que vayáis juntando los puntos siguientes con cada uno de los gráficos:

  1. Caso Bimodal (2 turnos o 2 maquinas o 2…)
  2. Caso de un dato erróneo al entrar los datos en la base de datos.
  3. Caso de distintas cavidades de un molde de inyección
  4. Caso de falta de resolución del aparato de medición

Os dejo descubrir lo que esconden estas rectas de Henry y os invito a compartir vuestra respuesta poniendo un comentario en este post. ¡A ver si acertáis! :-)

Hasta Pronto

Sandrine

El histograma “engañososo”

Friday, August 7th, 2009

Esta semana, me encontré de nuevo con un tipo de histograma que llamo el “engañoso”. La razón por la cual le doy este calificativo es porqué proviene de unos datos recogidos de manera que todos tienen que cumplir con la especificación.

En el ejemplo que enseño a continuación, se trata de una longitud de una pieza de plástico inyectada. El límite de tolerancia inferior es de 33,08mm y se mide con un pie de rei. A priori, en la empresa, todos estaban de acuerdo por decir que esta característica no daba problemas pero mirando el histograma y la representación en papel probabilístico normal vimos que la realidad era otra.

Diagrama de probabilidad "engañoso"

En este gráfico (diagrama de probabilidad), todos los datos deberían encontrarse más o menos alineados en una recta (la famosa recta de Henry). Se observa una bifurcación en la parte inferior de la recta indicando que no existen (teóricamente) datos por debajo de un determinado valor. Este fenómeno se encuentra justo en el límite inferior de tolerancia.

En el histograma, se ve claramente que la barra de frecuencia de los datos situados en el límite inferior es anormalmente más alta. Tratándose de una longitud, los datos deberían seguir una distribución normal.

Histograma "engañoso"

Estas representaciones gráficas de los datos nos enseñan claramente que el problema proviene de la manera de registrar los datos. Se miden las piezas pero en caso de obtener una medición por debajo del límite inferior, se registra un dato correspondiente a la propia tolerancia.

Me imagino que existen seguramente muchas “buenas” razones por hacerlo (evitar el papeleo relacionado con las no-conformidades, enmascarar problemas del proceso, poder asegurar que cumplimos con las especificaciones del cliente…). Pero no olvidemos que los datos nos pueden ayudar a detectar donde se encuentran los problemas y mejorar nuestros procesos. Si registramos datos falsos, nos estamos engañando y la tarea de optimización de procesos es bastante más compleja.

Hasta Pronto

Sandrine