PROCESSUS SIX SIGMA (LEAN)



TECHNIQUES DE GESTION

1. Diagramme de Pareto/Lorenz

1.1. Indice de Gini

2. PERT Probabiliste

3. Processus Six Sigma (Lean)

4. Contrôle statistique des salaires

5. Gestion de stocks

5.1. Stock initiale optimal

5.2. Modèle de Wilson

6. Biens d'équipements

6.1. Amortissement linéaire

6.2. Amortissement arithmétique dégressif

6.3. Amortissement géométrique dégressif

6.4. Choix d'investissement

6.4.1. Valeur actuelle nette

6.4.2. Taux de rentabilité interne

6.4.3. Délai de récupération et d'amortissement

7. Théorie des files d'attentes M/M/...

7.1. Modélisation des durées d'arrivées M/M/...

7.2. Modélisation des durées de service M/M/...

7.3. Notation de Kendall

7.4. Modélisation des arrivées et départs M/M/1

7.5. Probabilité de mise en attente M/M/k/k (formule d'Erlang B)

7.6. Probabilité de mise en attente M/M/k/8(formule d'Erlang C)

8. Assurances

8.1. Calcul de prime

8.2. Prise en compte de l'expérience

Comme nous l'avons vu dans le chapitre de Statistiques, la loi Normale est une fonction en forme de "cloche" donnée par:

equation   (56)

dont les écarts-types sont utilisées pour donner l'intervalle de probabilité cumulée de se situer dans ces bornes centré sur la moyenne comme représenté ci-dessous:

equation
  (57)

Ceci étant rappelé, nous avons également présenté dans le chapitre de Génie Industriel les probabilités conjointes dans le cadre de Six Sigma pour une chaîne de processus P connectés en série.

Au fait les processus mentionnés ne sont pas forcément des processus industriels mais peuvent être assimilés sous des hypothèses identiques à des processus quelconques (administratifs, procédures, workflows, etc.).

Nous avions vu que la probabilité conjointe (ou cumulée) est appelée dans Six Sigma "Rolled Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et est donnée par (cf. chapitre de Probabilités) :

equation   (58)

Par exemple l'application de la relation précédente donne pour un processus série en 4 étapes dont la fiabilité est de 90% chaque:

equation
  (59)

Nous nous retrouvons donc au final avec une fiabilité de 65.6% soit une probabilité cumulée de défaut pour l'ensemble du processus de 34.4%.

Remarque: Le lecteur attentif aura remarque que le système série est toujours moins fiable que sa composant la moins fiable!!

Redonnons le tableau au pire selon Six Sigma, soit le tableau en procédé non centré avec une déviation de la moyenne de equation (donc à droite mais on pourrait prendre à gauche et les résultats sont les mêmes) par rapport à la cible et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint toujours le champ d'application):

Cp

Cpk

Défauts (PPM)

Niveau de qualité Sigma

Critère

0.5

0

501350

1.5

Mauvais

0.6

0.1

382572

1.8

 

0.7

0.2

27412

2.1

 

0.8

0.3

184108

2.4

 

0.9

0.4

115083

2.7

 

1

0.5

66810

3

 

1.1

0.6

35931

3.3

 

1.2

0.7

17865

3.6

 

1.3

0.8

8198

3.9

Limite

1.4

0.9

3467

4.2

 

1.5

1

1350

4.5

 

1.6

1.1

483

4.8

 

1.7

1.2

159

5.1

 

1.8

1.3

48

5.4

 

1.9

1.4

13

5.7

 

2

1.5

3.4

6

Excellent

Tableau: 3  - Défauts et niveau de qualité Sigma en procédé décentré

où nous avons démontré dans le chapitre de Génie Industriel que les valeurs PPM étaient données par:

equation   (60)

Ce qui donne pour un niveau de qualité de 3 Sigma:

>evalf((1-1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..(1*3))))*1E6+evalf((1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..-(3*(1+1)))))*1E6;

soit une valeur de 66810 c'est-à-dire la valeur de la 6 ligne. Ce qui correspond à ~6.68% en termes de probabilité cumulée de non-qualité (66'810 divisé par 1 million et mis en pourcents) et donc respectivement à une probabilité cumulée de ~93.32% de qualité.

Nous avons le tableau suivant qui peut résumer certaines valeurs importantes du tableau précédent en utilisant la commande Maple:

 

equation

equation

equation

equation

Qualité%

93.32

99.38

99.98

99.9996

equation

1

1.33

1.68

2

Jugement

Mauvais

Limite

Bon

Excellent
Tableau: 4  - Valeurs importantes de maîtrise du procédé

Sous l'hypothèse que chaque étape d'un processus série suit la même loi avec les mêmes moments et les mêmes déviations par rapport à la cible nous avons alors:

Étapes/Qualité%

equation

equation

equation

equation

1

93.32

99.38

99.98

99.9996

7

61.63

95.73

99.84

99.9976
10
50.08
93.96
99.77
99.9966
20
25.08
88.29
99.54
99.9932
40
6.29
77.94
99.07
99.9864
60
1.58
68.81
98.61
99.9796
80
0.40
60.75
98.16
99.9728
100
0.10
53.64
97.70
99.996
...
...
...
...
...
Tableau: 5  - Niveau de qualité d'un processus/procédé ayant un nombre fini d'étapes

où chaque ligne représente le Rolled Troughput Yield (RTY) donc calculé avec:

equation   (61)

i dont le nombre d'étapes du processus (1,7,10,20,40) et où les probabilités sont données par la première ligne (1). Ainsi, avec un niveau de qualité de equation et une déviation à la cible de equation nous avons pour un processus de 20 étapes identiquement distribuées:

equation   (62)

ce qui est lamentable! Un procédé industriel en 20 étapes d'un produit complet devrait avoir au minimum un niveau de qualité de 4 sigma pour être acceptable en termes de rendement et de qualité

Ainsi, l'objectif du Lean Six Sigma dans une entreprise sera d'augementer le niveau de qualité avec un RTY maximum pour un nombre donné d'étapes d'un processus.

MODÈLE STATISTIQUE DE CONTRÔLE DES SALAIRES

Basée sur les us et coutumes en statistiques, le contrôle statistique des salaires (C.S.S.) peut se  justifier puisque l'outil et le principe de base est appliqué dans tous les domaines de l'économie (finance, médecine, ingénierie, qualité, biologie, projets, logistique, commerce, etc.)

L'idée, fort simple, est d'analyser la distribution statistique des salaires dans une population (nation, entreprise, département, niveau hiérarchique ou autre...) et de considérer tout ce qui est au-delà de 99.9996% de probabilité cumulée comme une anomalie. Au contraire, ce qui est à l'intérieur de l'intervalle sera justifié conformément aux standards d'usage et ne nécessitera dont ni débat, ni explications hasardeuses.

Déjà, une première règle empirique évidente, est que la variable aléatoire des salaires doit être catégorisée si sa distribution statistique est multimodale. Ce qui est fréquent dans certaines entreprises ou institutions. Il convient ensuite de choisir adéquatement les catégories qui seront fréquemment des niveaux hiérarchiques normalisés au sein de l'institution (ressources, responsables d'équipes, responsables de projets, directeurs de projets, direction...).

Une fois ceci fait, il doit rester une distribution statistique unimodale dont la variable aléatoire est strictement positive (les salaires négatifs étant rares...).

Par exemple, pour l''ensemble des salaires bruts annuels fixes en fin de carrière dans le canton de Genève (Suisse) en 2004 (source: Office Cantonal Genevois du personnel), nous avons la variables aléatoire qui suit une loi log-logistique de paramètres:

equation   (63)

Nous avons ainsi:

Probabilité cumulée (ou centile)

Valeur

99%

300'000

99.9%

535'000

99.99%

930'000

99.999%

1'600'000

99.9996%

2'030'000

99.9999%

2'850'000

99.99999%

5'000'000

99.999999%

8'800'000

99.9999998%

13'040'000

Tableau: 6 - Centile de la répartition des salaires avec valeur correspondante

Ainsi, si nous nous basons sur les us et coutumes en statistiques de la gestion de portefeuilles et du risque dans les bons instituts financiers, un salaire annuel de plus de 300'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Si nous nous basons sur les us et coutumes en statistiques de la gestion du risque et de la qualité dans l'industrie des procédés de fabrication massive, un salaire annuel de plus de 2'030'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Si nous nous basons sur les us et coutumes des statistiques les plus pointues en termes de qualité et du contrôle du risque, un salaire de plus de ~13'040'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Ainsi, il serait contradictoire que les personnes dirigeantes qui imposent des critères statistiques à leurs collaborateurs en ce qui concerne les services et la production ne les respectent pas eux-mêmes en ce qui concerne leur salaire ou n'impose pas des règles identiques au département des ressources humaines (dont le concept de qualité est souvent inconnu...).

Remarque: Le même raisonnement statistique peut s'appliquer pour la part variable du salaire.


page suivante : 5. Gestion de stocks