Ingénierie de la fiabilité

L'ingénierie de la fiabilité est une sous-discipline de l'ingénierie des systèmes qui met l'accent sur la capacité des équipements à fonctionner sans panne. La fiabilité décrit la capacité d'un système ou d'un composant à fonctionner dans des conditions données pendant une période de temps spécifiée. [1] La fiabilité est étroitement liée à la disponibilité , qui est généralement décrite comme la capacité d'un composant ou d'un système à fonctionner à un moment ou un intervalle de temps spécifié.

La fonction de fiabilité est théoriquement définie comme la probabilité de succès au temps t, notée R(t). En pratique, il est calculé selon différentes techniques et sa valeur est comprise entre 0 et 1, où 0 indique aucune probabilité de succès tandis que 1 indique un succès certain. Cette probabilité est estimée à partir d'une analyse détaillée (physique de défaillance), d'ensembles de données antérieurs ou de tests de fiabilité et de modélisation de fiabilité. La disponibilité , la testabilité , la maintenabilité et la maintenance sont souvent définies comme faisant partie de « l'ingénierie de la fiabilité » dans les programmes de fiabilité. La fiabilité joue souvent un rôle clé dans la rentabilité des systèmes.

L'ingénierie de la fiabilité traite de la prévision, de la prévention et de la gestion de niveaux élevés d' incertitude technique et de risques de défaillance « à vie » . Bien que les paramètres stochastiques définissent et affectent la fiabilité, celle-ci ne peut pas être atteinte uniquement par les mathématiques et les statistiques. [2] [3] "Presque tous les enseignements et la littérature sur le sujet mettent l'accent sur ces aspects et ignorent la réalité selon laquelle les plages d'incertitude impliquées invalident largement les méthodes quantitatives de prévision et de mesure." [4] Par exemple, il est facile de représenter la « probabilité de défaillance » sous la forme d'un symbole ou d'une valeur dans une équation, mais il est presque impossible de prédire sa véritable ampleur dans la pratique, qui est massivement multivariée . cela n’équivaut pas à disposer d’une mesure prédictive précise de la fiabilité.

L'ingénierie de la fiabilité est étroitement liée à l'ingénierie de la qualité, à l'ingénierie de la sécurité et à la sécurité des systèmes , dans la mesure où elles utilisent des méthodes communes pour leur analyse et peuvent nécessiter la contribution des uns et des autres. On peut dire qu’un système doit être fiable et sûr.

L'ingénierie de fiabilité se concentre sur les coûts des pannes causées par les temps d'arrêt du système, le coût des pièces de rechange, de l'équipement de réparation, du personnel et le coût des réclamations au titre de la garantie. [5]

Histoire

Le mot fiabilité remonte à 1816 et est attesté pour la première fois par le poète Samuel Taylor Coleridge . [6] Avant la Seconde Guerre mondiale, le terme était principalement lié à la répétabilité ; un test (dans n'importe quel type de science) était considéré comme « fiable » si les mêmes résultats étaient obtenus à plusieurs reprises. Dans les années 1920, l'amélioration des produits grâce à l'utilisation du contrôle statistique des processus a été promue par le Dr Walter A. Shewhart des Bell Labs [7] , à l'époque où Waloddi Weibull travaillait sur des modèles statistiques de fatigue. Le développement de l'ingénierie de fiabilité s'est déroulé ici parallèlement à celui de la qualité. L'usage moderne du mot fiabilité a été défini par l'armée américaine dans les années 1940, désignant un produit qui fonctionnerait au moment prévu et pendant une période de temps spécifiée.

Au cours de la Seconde Guerre mondiale, de nombreux problèmes de fiabilité étaient dus au manque de fiabilité inhérent des équipements électroniques disponibles à l'époque et à des problèmes de fatigue. En 1945, MA Miner a publié un article fondateur intitulé "Cumulative Damage in Fatigue" dans une revue de l'ASME. L'une des principales applications de l'ingénierie de fiabilité dans l'armée concernait le tube à vide utilisé dans les systèmes radar et autres appareils électroniques, pour lesquels la fiabilité s'est avérée très problématique et coûteuse. L' IEEE a créé la Reliability Society en 1948. En 1950, le ministère de la Défense des États-Unis a formé un groupe appelé « Groupe consultatif sur la fiabilité des équipements électroniques » (AGREE) pour étudier les méthodes de fiabilité des équipements militaires. [8] Ce groupe a recommandé trois méthodes principales de travail :

  • Améliorer la fiabilité des composants.
  • Établir les exigences de qualité et de fiabilité pour les fournisseurs.
  • Collectez des données sur le terrain et trouvez les causes profondes des échecs.

Dans les années 1960, l’accent a été mis davantage sur les tests de fiabilité au niveau des composants et du système. La célèbre norme militaire MIL-STD-781 a été créée à cette époque. À cette époque également, le prédécesseur très utilisé du manuel militaire 217 a été publié par RCA et a été utilisé pour prédire les taux de défaillance des composants électroniques. L'accent mis sur la fiabilité des composants et la recherche empirique (par exemple Mil Std 217) a lentement diminué. Des approches plus pragmatiques, telles qu'utilisées dans les industries de consommation, étaient utilisées. Dans les années 1980, les téléviseurs étaient de plus en plus constitués de semi-conducteurs à semi-conducteurs. Les automobiles ont rapidement augmenté leur utilisation des semi-conducteurs avec une variété de micro-ordinateurs sous le capot et dans le tableau de bord. Les grands systèmes de climatisation ont développé des contrôleurs électroniques, tout comme les fours à micro-ondes et divers autres appareils. Les systèmes de communication ont commencé à adopter l'électronique pour remplacer les anciens systèmes de commutation mécaniques. Bellcore a publié la première méthodologie de prédiction des consommateurs pour les télécommunications, et SAE a développé un document similaire SAE870050 pour les applications automobiles. La nature des prédictions a évolué au cours de la décennie et il est devenu évident que la complexité des puces n'était pas le seul facteur déterminant les taux de défaillance des circuits intégrés (CI). Kam Wong a publié un article remettant en question la courbe de la baignoire [9] — voir aussi maintenance centrée sur la fiabilité . Au cours de cette décennie, le taux de défaillance de nombreux composants a été divisé par 10. Les logiciels sont devenus importants pour la fiabilité des systèmes. Dans les années 1990, le rythme du développement des circuits intégrés s’est accéléré. Une utilisation plus large des micro-ordinateurs autonomes était courante et le marché des PC a contribué à maintenir les densités de circuits intégrés conformément à la loi de Moore et à doubler environ tous les 18 mois. L'ingénierie de la fiabilité évolue désormais à mesure qu'elle s'oriente vers la compréhension de la physique de la défaillance . Les taux de défaillance des composants ont continué de baisser, mais les problèmes au niveau du système sont devenus plus importants. La pensée systémique est devenue de plus en plus importante. Pour les logiciels, le modèle CMM ( Capability Maturity Model ) a été développé, qui a donné une approche plus qualitative de la fiabilité. ISO 9000 a ajouté des mesures de fiabilité dans le cadre de la partie conception et développement de la certification. L'expansion du World-Wide Web a créé de nouveaux défis en matière de sécurité et de confiance. L'ancien problème du manque d'informations disponibles sur la fiabilité a désormais été remplacé par une trop grande quantité d'informations de valeur douteuse. Les problèmes de fiabilité des consommateurs pourraient désormais être discutés en ligne et en temps réel à l’aide de données. Nouvelles technologies telles que les systèmes microélectromécaniques ( MEMS ), les GPS portables, et les appareils portables combinant téléphones portables et ordinateurs représentent tous des défis pour maintenir la fiabilité. Le temps de développement des produits a continué à se raccourcir au cours de cette décennie et ce qui avait été fait en trois ans a été réalisé en 18 mois. Cela signifiait que les outils et les tâches de fiabilité devaient être plus étroitement liés au processus de développement lui-même. À bien des égards, la fiabilité est devenue partie intégrante de la vie quotidienne et des attentes des consommateurs.

Aperçu

La fiabilité est la probabilité qu'un produit remplisse sa fonction prévue pendant sa période d'utilisation spécifiée et dans des conditions de fonctionnement spécifiées, d'une manière qui répond ou dépasse les attentes du client. [dix]

Objectif

Les objectifs de l'ingénierie de fiabilité, par ordre de priorité décroissante, sont : [11]

  1. Appliquer des connaissances en ingénierie et des techniques spécialisées pour prévenir ou réduire la probabilité ou la fréquence des pannes.
  2. Identifier et corriger les causes des pannes qui surviennent malgré les efforts déployés pour les prévenir.
  3. Déterminer les moyens de faire face aux échecs qui surviennent, si leurs causes n'ont pas été corrigées.
  4. Appliquer des méthodes pour estimer la fiabilité probable de nouvelles conceptions et pour analyser les données de fiabilité.

La raison de cette priorité est qu'il s'agit de loin de la méthode de travail la plus efficace, en termes de minimisation des coûts et de génération de produits fiables. Les principales compétences requises sont donc la capacité à comprendre et à anticiper les causes possibles des pannes, ainsi que la connaissance des moyens de les prévenir. Il est également nécessaire de connaître les méthodes pouvant être utilisées pour analyser les conceptions et les données.

Portée et techniques

L'ingénierie de la fiabilité pour les « systèmes complexes » nécessite une approche système différente, plus élaborée, que pour les systèmes non complexes. L’ingénierie de fiabilité peut dans ce cas concerner :

  • Analyse de la disponibilité du système et de l'état de préparation à la mission et allocation des exigences de fiabilité et de maintenance associées
  • Analyse des défaillances fonctionnelles du système et spécification des exigences dérivées
  • Analyse de la fiabilité de la conception inhérente (du système) et spécification des exigences dérivées pour la conception matérielle et logicielle
  • Conception de diagnostics système
  • Systèmes tolérants aux pannes (par exemple par redondance)
  • Maintenance prédictive et préventive (par exemple maintenance centrée sur la fiabilité)
  • Facteurs humains / interaction humaine / erreurs humaines
  • Défaillances induites par la fabrication et l'assemblage (effet sur la « qualité 0 heure » détectée et la fiabilité)
  • Pannes induites par la maintenance
  • Pannes induites par les transports
  • Pannes induites par le stockage
  • Études d'utilisation (de charge), analyse des contraintes des composants et spécification des exigences dérivées
  • Pannes logicielles (systématiques)
  • Tests de défaillance/fiabilité (et exigences dérivées)
  • Surveillance des défaillances sur le terrain et actions correctives
  • Stockage des pièces de rechange (contrôle de disponibilité)
  • Documentation technique, analyse des précautions et des avertissements
  • Acquisition/organisation des données et informations (création d'un journal général des risques de développement de la fiabilité et du système FRACAS )
  • Ingénierie du chaos

Une ingénierie de fiabilité efficace nécessite une compréhension des bases des mécanismes de défaillance pour lesquels une expérience, de vastes compétences en ingénierie et de bonnes connaissances dans de nombreux domaines spéciaux de l'ingénierie sont nécessaires, [12] par exemple :

Définitions

La fiabilité peut être définie des manières suivantes :

  • L'idée selon laquelle un objet est adapté à un objectif par rapport au temps
  • La capacité d'un élément conçu, produit ou entretenu à fonctionner comme requis au fil du temps
  • La capacité d'une population d'éléments conçus, produits ou entretenus à fonctionner comme requis au fil du temps
  • La résistance à la défaillance d'un objet dans le temps
  • La probabilité qu'un élément remplisse une fonction requise dans des conditions données pendant une période de temps spécifiée
  • La durabilité d'un objet

Bases d'une évaluation de la fiabilité

De nombreuses techniques d'ingénierie sont utilisées dans les évaluations des risques de fiabilité , telles que les schémas fonctionnels de fiabilité, l'analyse des dangers , l'analyse des modes de défaillance et de leurs effets (FMEA), [13] l'analyse des arbres de défaillances (FTA), la maintenance centrée sur la fiabilité , la charge (probabiliste) et la contrainte des matériaux et calculs d'usure, analyse (probabiliste) de fatigue et de fluage, analyse des erreurs humaines, analyse des défauts de fabrication, tests de fiabilité, etc. Il est crucial que ces analyses soient effectuées correctement et avec beaucoup d'attention aux détails pour être efficaces. En raison du grand nombre de techniques de fiabilité, de leur coût et des différents degrés de fiabilité requis pour différentes situations, la plupart des projets élaborent un plan de programme de fiabilité pour spécifier les tâches de fiabilité ( exigences de l'énoncé des travaux (SoW)) qui seront exécutées pour cela. système spécifique.

Conformément à la création de dossiers de sécurité , par exemple selon ARP4761 , l'objectif des évaluations de fiabilité est de fournir un ensemble solide de preuves qualitatives et quantitatives démontrant que l'utilisation d'un composant ou d'un système ne sera pas associée à un risque inacceptable. Les étapes de base à suivre [14] sont les suivantes :

  • Identifier minutieusement les « risques » liés au manque de fiabilité, par exemple les conditions potentielles, les événements, les erreurs humaines, les modes de défaillance, les interactions, les mécanismes de défaillance et les causes profondes, par des analyses ou des tests spécifiques.
  • Évaluer le risque système associé, par des analyses ou des tests spécifiques.
  • Proposer des mesures d'atténuation, par exemple des exigences , des modifications de conception, une logique de détection, une maintenance, une formation, grâce auxquelles les risques peuvent être réduits et contrôlés à un niveau acceptable.
  • Déterminez la meilleure atténuation et obtenez un accord sur les niveaux de risque finaux et acceptables, éventuellement sur la base d’une analyse coûts/avantages.

Le risque est ici la combinaison de la probabilité et de la gravité de l’incident de défaillance (scénario). La gravité peut être examinée du point de vue de la sécurité ou de la disponibilité du système. La fiabilité pour la sécurité peut être considérée comme un objectif très différent de la fiabilité pour la disponibilité du système. La disponibilité et la sécurité peuvent exister en tension dynamique, car maintenir un système trop disponible peut s'avérer dangereux. Forcer un système d'ingénierie à passer trop rapidement à un état sûr peut provoquer de fausses alarmes qui entravent la disponibilité du système.

Dans une définition de minimis , la gravité des pannes comprend le coût des pièces de rechange, les heures de travail, la logistique, les dommages (pannes secondaires) et les temps d'arrêt des machines pouvant entraîner une perte de production. Une définition plus complète de l'échec peut également signifier des blessures, des démembrements et la mort de personnes au sein du système (témoin d'accidents de mines, d'accidents industriels, pannes de navette spatiale) et la même chose pour des passants innocents (témoin des citoyens de villes comme Bhopal, Love Canal, Tchernobyl, ou Sendai, et d'autres victimes du tremblement de terre et du tsunami de Tōhoku en 2011) : dans ce cas, l'ingénierie de fiabilité devient la sécurité du système. Ce qui est acceptable est déterminé par l'autorité de gestion, les clients ou les communautés concernées. Le risque résiduel est le risque qui subsiste une fois toutes les activités de fiabilité terminées. Il inclut le risque non identifié et n'est donc pas entièrement quantifiable.

La complexité des systèmes techniques, telle que les améliorations de la conception et des matériaux, les inspections planifiées, la conception infaillible et la redondance de sauvegarde, diminuent les risques et augmentent les coûts. Le risque peut être réduit aux niveaux ALARA (aussi bas que raisonnablement réalisable) ou ALAPA (aussi bas que raisonnablement réalisable).

Plan du programme de fiabilité et de disponibilité

La mise en œuvre d'un programme de fiabilité ne consiste pas simplement à acheter un logiciel ; il ne s’agit pas simplement d’une liste de contrôle d’éléments à remplir pour garantir la fiabilité des produits et des processus. Un programme de fiabilité est un système complexe d'apprentissage et de connaissances propre à ses produits et processus. Il s'appuie sur un leadership, fondé sur les compétences que l'on développe au sein d'une équipe, intégré aux processus d'affaires et exécuté en suivant des pratiques de travail standard éprouvées. [15]

Un plan de programme de fiabilité est utilisé pour documenter exactement les « meilleures pratiques » (tâches, méthodes, outils, analyses et tests) requises pour un (sous-)système particulier, ainsi que pour clarifier les exigences des clients en matière d'évaluation de la fiabilité. Pour les systèmes complexes à grande échelle, le plan du programme de fiabilité doit constituer un document distinct . La détermination des ressources en main-d'œuvre et en budgets pour les tests et autres tâches est essentielle à la réussite d'un programme. En général, la quantité de travail requise pour un programme efficace pour des systèmes complexes est importante.

Un plan de programme de fiabilité est essentiel pour atteindre des niveaux élevés de fiabilité, de testabilité, de maintenabilité et la disponibilité du système qui en résulte . Il est développé dès le début du développement du système et affiné tout au long du cycle de vie du système. Il précise non seulement ce que fait l'ingénieur fiabilité, mais également les tâches effectuées par les autres parties prenantes . Un plan de programme de fiabilité efficace doit être approuvé par la haute direction du programme, qui est responsable de l'allocation de ressources suffisantes pour sa mise en œuvre.

Un plan de programme de fiabilité peut également être utilisé pour évaluer et améliorer la disponibilité d'un système en se concentrant sur l'augmentation de la testabilité et de la maintenabilité et non sur la fiabilité. Améliorer la maintenabilité est généralement plus facile que d’améliorer la fiabilité. Les estimations de maintenabilité (taux de réparation) sont également généralement plus précises. Cependant, comme les incertitudes dans les estimations de fiabilité sont dans la plupart des cas très grandes, elles sont susceptibles de dominer le calcul de la disponibilité (problème d'incertitude de prévision), même lorsque les niveaux de maintenabilité sont très élevés. Lorsque la fiabilité n'est pas maîtrisée, des problèmes plus complexes peuvent survenir, comme le manque de main d'œuvre (capacités de maintenance/service client), la disponibilité des pièces de rechange, les retards logistiques, le manque d'installations de réparation, les coûts de mise à niveau importants et de gestion de configuration complexe, etc. Le problème du manque de fiabilité peut également s'aggraver en raison de « l'effet domino » des pannes induites par la maintenance après les réparations. Se concentrer uniquement sur la maintenabilité n’est donc pas suffisant. Si les pannes sont évitées, aucun des autres problèmes n'a d'importance et la fiabilité est donc généralement considérée comme l'élément le plus important de la disponibilité. La fiabilité doit être évaluée et améliorée en termes de disponibilité et de coût total de possession (TCO) en raison du coût des pièces de rechange, des heures de maintenance, des coûts de transport, des coûts de stockage, des risques de pièces obsolètes, etc. Mais, comme GM et Toyota Comme nous l'avons découvert tardivement, le TCO inclut également les coûts de responsabilité en aval lorsque les calculs de fiabilité n'ont pas suffisamment ou précisément pris en compte les risques corporels personnels des clients. Un compromis est souvent nécessaire entre les deux. Il peut y avoir un rapport maximum entre la disponibilité et le coût de possession. La testabilité d'un système doit également être abordée dans le plan, car c'est le lien entre fiabilité et maintenabilité. La stratégie de maintenance peut influencer la fiabilité d'un système (par exemple, par une maintenance préventive et/ou prédictive ), même si elle ne peut jamais l'amener au-dessus de la fiabilité inhérente.

Le plan de fiabilité doit clairement fournir une stratégie de contrôle de la disponibilité. Le fait que seule la disponibilité ou également le coût de possession soit plus important dépend de l'utilisation du système. Par exemple, un système qui constitue un maillon critique d'un système de production (par exemple une grande plate-forme pétrolière) peut normalement avoir un coût de possession très élevé si ce coût se traduit par une augmentation, même mineure, de la disponibilité, comme l'indisponibilité du système. plate-forme entraîne une perte massive de revenus qui peut facilement dépasser le coût de possession élevé. Un plan de fiabilité approprié doit toujours aborder l'analyse RAMT dans son contexte global. RAMT est synonyme de fiabilité, de disponibilité, de maintenabilité/maintenance et de testabilité dans le contexte des besoins du client.

Exigences de fiabilité

Pour tout système, l'une des premières tâches de l'ingénierie de fiabilité est de spécifier de manière adéquate les exigences de fiabilité et de maintenabilité attribuées à partir des besoins globaux de disponibilité et, plus important encore, dérivées d'une analyse appropriée des défaillances de conception ou des résultats préliminaires des tests de prototype. Des exigences claires (capables de concevoir) devraient empêcher les concepteurs de concevoir des éléments/constructions/interfaces/systèmes particulièrement peu fiables. Fixer uniquement des objectifs de disponibilité, de fiabilité, de testabilité ou de maintenabilité (par exemple, les taux de défaillance maximum) n'est pas approprié. Il s’agit d’un vaste malentendu à propos de l’ingénierie des exigences de fiabilité. Les exigences de fiabilité concernent le système lui-même, y compris les exigences de test et d'évaluation, ainsi que les tâches et la documentation associées. Les exigences de fiabilité sont incluses dans les spécifications des exigences du système ou du sous-système approprié, les plans de test et les déclarations contractuelles. La création d’exigences appropriées de niveau inférieur est essentielle. [16] La fourniture d'objectifs minimaux uniquement quantitatifs (par exemple, valeurs du temps moyen entre pannes (MTBF) ou taux de défaillance) n'est pas suffisante pour différentes raisons. L'une des raisons est qu'une validation complète (liée à l'exactitude et à la vérifiabilité dans le temps) d'une allocation quantitative de fiabilité (spécification d'exigence) aux niveaux inférieurs pour des systèmes complexes ne peut (souvent) pas être effectuée en raison (1) du fait que les exigences sont probabilistes, (2) le niveau extrêmement élevé d'incertitudes impliquées pour démontrer la conformité à toutes ces exigences probabilistes, et parce que (3) la fiabilité est fonction du temps et que des estimations précises d'un nombre de fiabilité (probabiliste) par élément ne sont disponibles que très tard dans le projet, parfois même après de nombreuses années d'utilisation en service. Comparez ce problème avec le (ré)équilibrage continu, par exemple, des exigences de masse des systèmes de niveau inférieur dans le développement d'un avion, ce qui est déjà souvent une entreprise de grande envergure. Notez que dans ce cas, les masses ne diffèrent qu'en termes de quelques %, ne sont pas fonction du temps, les données sont non probabilistes et sont déjà disponibles dans les modèles CAO. En cas de fiabilité, les niveaux de manque de fiabilité (taux de défaillance) peuvent changer selon des facteurs de dizaines d'années (multiples de 10) en raison d'écarts très mineurs dans la conception, le processus ou toute autre chose. [17]Les informations ne sont souvent pas disponibles sans d’énormes incertitudes au cours de la phase de développement. Cela rend ce problème d'allocation presque impossible à résoudre d'une manière utile, pratique et valide qui n'entraîne pas une surspécification ou une sous-spécification massive. Une approche pragmatique est donc nécessaire, par exemple : l'utilisation de niveaux/classes générales d'exigences quantitatives dépendant uniquement de la gravité des effets de la défaillance. Aussi, la validation des résultats est une tâche bien plus subjective que pour tout autre type d’exigence. Les paramètres de fiabilité (quantitatifs) – en termes de MTBF – sont de loin les paramètres de conception les plus incertains de toute conception.

En outre, les exigences de conception en matière de fiabilité doivent conduire à ce qu'une conception (de système ou de pièce) intègre des fonctionnalités qui empêchent les pannes de se produire ou limitent les conséquences d'une panne en premier lieu. Non seulement cela faciliterait certaines prédictions, mais cet effort éviterait de détourner l’effort d’ingénierie vers une sorte de travail comptable. Une exigence de conception doit être suffisamment précise pour qu'un concepteur puisse "concevoir" en fonction de celle-ci et puisse également prouver - par le biais d'analyses ou de tests - que l'exigence a été satisfaite et, si possible, dans les limites d'une certaine confiance déclarée. Tout type d'exigence de fiabilité doit être détaillé et peut être dérivé d'une analyse de défaillance (analyse de contrainte et de fatigue par éléments finis, analyse des risques de fiabilité, FTA, FMEA, analyse des facteurs humains, analyse des risques fonctionnels, etc.) ou de tout type de test de fiabilité. En outre, des exigences sont nécessaires pour les tests de vérification (par exemple, les contraintes de surcharge requises) et la durée des tests nécessaires. Pour dériver ces exigences de manière efficace, une logique d’évaluation et d’atténuation des risques basée sur l’ingénierie des systèmes doit être utilisée. Des systèmes robustes de journalisation des dangers doivent être créés, contenant des informations détaillées sur pourquoi et comment les systèmes ont pu ou ont pu tomber en panne. Les exigences doivent être dérivées et suivies de cette manière. Ces exigences pratiques de conception doivent guider la conception et ne doivent pas être utilisées uniquement à des fins de vérification. Ces exigences (souvent des contraintes de conception) sont ainsi dérivées d'une analyse de défaillance ou d'essais préliminaires. La compréhension de cette différence par rapport à la spécification d'exigences purement quantitatives (logistiques) (par exemple, taux de défaillance / objectif MTBF) est primordiale dans le développement de systèmes (complexes) réussis. [18]

Les exigences de maintenabilité concernent les coûts des réparations ainsi que le temps de réparation. Les exigences de testabilité (à ne pas confondre avec les exigences de test) établissent le lien entre fiabilité et maintenabilité et doivent aborder la détectabilité des modes de défaillance (à un niveau particulier du système), les niveaux d'isolement et la création de diagnostics (procédures). Comme indiqué ci-dessus, les ingénieurs en fiabilité doivent également répondre aux exigences relatives à diverses tâches de fiabilité et à la documentation pendant le développement, les tests, la production et l'exploitation du système. Ces exigences sont généralement précisées dans l'énoncé des travaux du contrat et dépendent de la marge de manœuvre que le client souhaite accorder à l'entrepreneur. Les tâches de fiabilité comprennent diverses analyses, planifications et rapports de pannes. La sélection des tâches dépend de la criticité du système ainsi que du coût. Un système critique pour la sécurité peut nécessiter un processus formel de reporting et d'examen des défaillances tout au long du développement, tandis qu'un système non critique peut s'appuyer sur des rapports de tests finaux. Les tâches les plus courantes des programmes de fiabilité sont documentées dans les normes des programmes de fiabilité, telles que MIL-STD-785 et IEEE 1332. L'analyse des rapports de défaillance et les systèmes d'actions correctives constituent une approche courante pour la surveillance de la fiabilité des produits/processus.

Culture de fiabilité / erreurs humaines / facteurs humains

En pratique, la plupart des échecs peuvent être attribués à un certain type d' erreur humaine , par exemple dans :

  • Décisions de gestion (par exemple en matière de budgétisation, de calendrier et de tâches requises)
  • Ingénierie Systèmes : Etudes d'usage (cas de charge)
  • Ingénierie des systèmes : analyse / définition des besoins
  • Ingénierie des systèmes : contrôle de configuration
  • Hypothèses
  • Calculs / simulations / analyse FEM
  • Conception
  • Des dessins de conception
  • Tests (par exemple paramètres de charge incorrects ou mesure de défaillance)
  • analyses statistiques
  • Fabrication
  • Contrôle de qualité
  • Entretien
  • Manuels d'entretien
  • Entraînement
  • Classement et classement des informations
  • Retour d'information sur le terrain (par exemple incorrect ou trop vague)
  • etc.

Cependant, les humains sont également très doués pour détecter de telles défaillances, les corriger et improviser lorsque des situations anormales se produisent. Par conséquent, les politiques qui excluent complètement les actions humaines dans les processus de conception et de production afin d’améliorer la fiabilité pourraient ne pas être efficaces. Certaines tâches sont mieux exécutées par les humains et d’autres par les machines. [19]

Par ailleurs, les erreurs humaines dans la gestion ; l'organisation des données et des informations; ou la mauvaise utilisation ou l'abus des articles, peuvent également contribuer au manque de fiabilité. C'est la raison principale pour laquelle des niveaux élevés de fiabilité pour des systèmes complexes ne peuvent être atteints qu'en suivant un processus d'ingénierie système robuste avec une planification et une exécution appropriées des tâches de validation et de vérification. Cela implique également une organisation minutieuse du partage de données et d'informations et la création d'une « culture de fiabilité », de la même manière qu'avoir une « culture de sécurité » est primordial dans le développement de systèmes critiques pour la sécurité.

Prédiction et amélioration de la fiabilité

La prédiction de fiabilité combine :

  • création d'un modèle de fiabilité approprié (voir plus loin sur cette page)
  • estimation (et justification) des paramètres d'entrée pour ce modèle (par exemple, taux de défaillance pour un mode de défaillance ou un événement particulier et temps moyen de réparation du système pour une défaillance particulière)
  • estimation des paramètres de fiabilité de sortie au niveau du système ou de la pièce (c'est-à-dire la disponibilité du système ou la fréquence d'une défaillance fonctionnelle particulière) L'accent mis sur la quantification et la définition d'objectifs (par exemple MTBF) peut impliquer qu'il existe une limite à la fiabilité réalisable, cependant, il n'y a pas de limite inhérente et le développement d’une plus grande fiabilité n’a pas besoin d’être plus coûteux. De plus, ils [ qui ? ] soutiennent que la prédiction de la fiabilité à partir de données historiques peut être très trompeuse, les comparaisons n'étant valables que pour des conceptions, des produits, des processus de fabrication et une maintenance identiques avec des charges d'exploitation et des environnements d'utilisation identiques. Même des modifications mineures dans l’un de ces éléments pourraient avoir des effets majeurs sur la fiabilité. En outre, les éléments les plus peu fiables et les plus importants (c'est-à-dire les candidats les plus intéressants pour une enquête de fiabilité) sont les plus susceptibles d'être modifiés et repensés depuis la collecte des données historiques, ce qui rend les méthodes statistiques standards (réactives ou proactives) et les processus utilisés par exemple dans les secteurs médical ou des assurances sont moins efficaces. Un autre argument surprenant – mais logique – est que pour pouvoir prédire avec précision la fiabilité par des tests, les mécanismes exacts de défaillance doivent être connus et donc – dans la plupart des cas – pourraient être évités ! Suivre la mauvaise voie consistant à essayer de quantifier et de résoudre un problème complexe d'ingénierie de fiabilité en termes de MTBF ou de probabilité en utilisant une approche incorrecte – par exemple, l'approche réactive – est appelé par Barnard « Jouer au jeu des chiffres » et est considéré comme une mauvaise pratique. [20]

Pour les systèmes existants, on peut soutenir que toute tentative par un programme responsable de corriger la cause première des défaillances découvertes peut rendre invalide l'estimation initiale du MTBF, car de nouvelles hypothèses (elles-mêmes sujettes à des niveaux d'erreur élevés) sur l'effet de cette correction doivent être formulées. . Un autre problème pratique est l'indisponibilité générale de données détaillées sur les défaillances, celles disponibles présentant souvent un filtrage incohérent des données de défaillance (retour d'information) et ignorant les erreurs statistiques (qui sont très élevées pour des événements rares comme les défaillances liées à la fiabilité). Des lignes directrices très claires doivent être présentes pour compter et comparer les défaillances liées à différents types de causes profondes (par exemple, défaillances de fabrication, de maintenance, de transport, induites par le système ou inhérentes à la conception). La comparaison de différents types de causes peut conduire à des estimations incorrectes et à des décisions commerciales incorrectes quant aux axes d'amélioration.

Effectuer une prédiction quantitative appropriée de la fiabilité des systèmes peut être difficile et très coûteux si cela est effectué par des tests. Au niveau des pièces individuelles, les résultats de fiabilité peuvent souvent être obtenus avec un niveau de confiance relativement élevé, car il peut être possible de tester de nombreux échantillons de pièces en utilisant le budget de test disponible. Cependant, malheureusement, ces tests peuvent manquer de validité au niveau du système en raison des hypothèses formulées lors des tests au niveau des pièces. Ces auteurs ont souligné l’importance des tests initiaux au niveau de la pièce ou du système jusqu’à l’échec, et d’apprendre de ces échecs pour améliorer le système ou la pièce. La conclusion générale est qu'une prévision précise et absolue de la fiabilité – par comparaison des données de terrain ou par tests – n'est dans la plupart des cas pas possible. Une exception pourrait être les défaillances dues à des problèmes d’usure tels que les ruptures de fatigue. Dans l'introduction de la MIL-STD-785, il est écrit que la prédiction de la fiabilité doit être utilisée avec une grande prudence, voire utilisée uniquement à des fins de comparaison dans des études de compromis.

Conception pour la fiabilité

La conception pour la fiabilité (DfR) est un processus qui englobe des outils et des procédures permettant de garantir qu'un produit répond à ses exigences de fiabilité, dans son environnement d'utilisation, pendant toute sa durée de vie. DfR est mis en œuvre dès la phase de conception d'un produit pour améliorer de manière proactive la fiabilité du produit. [21] DfR est souvent utilisé dans le cadre d'une stratégie globale de conception pour l'excellence (DfX) .

Approche basée sur les statistiques (c'est-à-dire MTBF)

La conception de la fiabilité commence par le développement d'un modèle (de système) . Les modèles de fiabilité et de disponibilité utilisent des diagrammes fonctionnels et une analyse d'arbre de défaillances pour fournir un moyen graphique d'évaluer les relations entre les différentes parties du système. Ces modèles peuvent intégrer des prédictions basées sur des taux de défaillance tirés de données historiques. Bien que les prévisions (données d’entrée) ne soient souvent pas exactes dans l’absolu, elles sont utiles pour évaluer les différences relatives dans les alternatives de conception. Les paramètres de maintenabilité, par exemple le temps moyen de réparation (MTTR), peuvent également être utilisés comme entrées pour de tels modèles.

Les causes fondamentales de déclenchement et les mécanismes de défaillance les plus importants doivent être identifiés et analysés à l'aide d'outils d'ingénierie. Un ensemble diversifié de conseils pratiques concernant les performances et la fiabilité devraient être fournis aux concepteurs afin qu'ils puissent générer des conceptions et des produits à faible contrainte qui protègent ou sont protégés contre les dommages et l'usure excessive. Une validation appropriée des charges d'entrée (exigences) peut être nécessaire, en plus de la vérification des « performances » de fiabilité par des tests.

Un diagramme d'arbre de défaillances

L'une des techniques de conception les plus importantes est la redondance . Cela signifie que si une partie du système tombe en panne, il existe une autre voie de réussite, telle qu'un système de sauvegarde. La raison pour laquelle il s'agit du choix de conception ultime est liée au fait que des preuves de fiabilité élevées pour les nouvelles pièces ou systèmes ne sont souvent pas disponibles, ou sont extrêmement coûteuses à obtenir. En combinant la redondance, un niveau élevé de surveillance des pannes et la prévention des pannes de cause commune ; même un système avec une fiabilité monocanal (partielle) relativement faible peut être rendu hautement fiable au niveau du système (jusqu'à une fiabilité critique pour la mission). Aucun test de fiabilité n’est requis pour cela. En conjonction avec la redondance, l'utilisation de conceptions ou de processus de fabrication différents (par exemple via différents fournisseurs de pièces similaires) pour des canaux indépendants uniques, peut réduire la sensibilité aux problèmes de qualité (par exemple, les échecs de la petite enfance chez un seul fournisseur), permettant ainsi des niveaux très élevés. de fiabilité à atteindre à tous les moments du cycle de développement (du début de vie au long terme). La redondance peut également être appliquée à l'ingénierie des systèmes en vérifiant deux fois les exigences, les données, les conceptions, les calculs, les logiciels et les tests pour surmonter les pannes systématiques.

Un autre moyen efficace de résoudre les problèmes de fiabilité consiste à effectuer une analyse qui prédit la dégradation, permettant ainsi de prévenir les événements/pannes d'arrêt imprévus. Les programmes RCM (Reliability Centered Maintenance) peuvent être utilisés à cet effet.

Approche basée sur la physique de l'échec

Pour les assemblages électroniques, on observe une évolution croissante vers une approche différente appelée physique de la défaillance . Cette technique repose sur la compréhension des mécanismes de défaillance physiques, statiques et dynamiques. Il prend en compte les variations de charge, de résistance et de contrainte qui conduisent à une rupture avec un niveau de détail élevé, rendu possible grâce à l'utilisation de logiciels modernes de méthode des éléments finis (FEM) capables de gérer des géométries et des mécanismes complexes tels que le fluage et la relaxation des contraintes. , fatigue et conception probabiliste ( Méthodes de Monte Carlo /DOE). Le matériau ou le composant peut être reconçu pour réduire la probabilité de défaillance et le rendre plus robuste face à de telles variations. Une autre technique de conception courante est le déclassement des composants : c'est-à-dire la sélection de composants dont les spécifications dépassent considérablement les niveaux de contrainte attendus, par exemple en utilisant un fil électrique de plus gros calibre que celui qui pourrait normalement être spécifié pour le courant électrique attendu .

Outils et techniques courants

De nombreuses tâches, techniques et analyses utilisées en ingénierie de la fiabilité sont spécifiques à des industries et à des applications particulières, mais peuvent généralement inclure :

Les résultats de ces méthodes sont présentés lors des revues de conception de pièces ou de systèmes et de la logistique. La fiabilité n’est qu’une exigence parmi tant d’autres pour une pièce ou un système complexe. Des études de compromis techniques sont utilisées pour déterminer l’ équilibre optimal entre les exigences de fiabilité et d’autres contraintes.

L'importance de la langue

Les ingénieurs en fiabilité, qu'ils utilisent des méthodes quantitatives ou qualitatives pour décrire une panne ou un danger, s'appuient sur le langage pour identifier les risques et permettre de résoudre les problèmes. Le langage utilisé doit aider à créer une description ordonnée de la fonction/élément/système et de son environnement complexe en ce qui concerne la défaillance de ces fonctions/éléments/systèmes. L'ingénierie des systèmes consiste essentiellement à trouver les mots corrects pour décrire le problème (et les risques associés), afin qu'ils puissent être facilement résolus via des solutions d'ingénierie. Jack Ring a déclaré que le travail d'un ingénieur système consiste à « langageer le projet ». (Ring et al. 2000) [23] Pour les pannes de pièces/systèmes, les ingénieurs en fiabilité devraient se concentrer davantage sur le « pourquoi et comment », plutôt que sur la prédiction du « quand ». Comprendre « pourquoi » une défaillance s'est produite (par exemple en raison de composants trop sollicités ou de problèmes de fabrication) est bien plus susceptible de conduire à une amélioration des conceptions et des processus utilisés [4] que de quantifier « quand » une défaillance est susceptible de se produire (par exemple via la détermination du MTBF). Pour ce faire, les risques de fiabilité liés à la pièce/au système doivent d'abord être classés et ordonnés (sur la base d'une certaine forme de logique qualitative et quantitative si possible) pour permettre une évaluation plus efficace et une éventuelle amélioration. Cela se fait en partie dans le langage pur et la logique des propositions , mais également sur la base de l'expérience avec des éléments similaires. Cela peut par exemple être observé dans les descriptions d'événements dans l'analyse des arbres de défaillances , l'analyse FMEA et les journaux de dangers (suivi). En ce sens, le langage et la grammaire appropriée (qui font partie de l'analyse qualitative) jouent un rôle important dans l'ingénierie de la fiabilité, tout comme dans l'ingénierie de la sécurité ou en général dans l'ingénierie des systèmes .

L'utilisation correcte du langage peut également être essentielle pour identifier ou réduire les risques d' erreur humaine , qui sont souvent à l'origine de nombreux échecs. Cela peut inclure des instructions appropriées dans les manuels de maintenance, les manuels d'exploitation, les procédures d'urgence et autres pour éviter les erreurs humaines systématiques pouvant entraîner des pannes du système. Ceux-ci doivent être rédigés par des auteurs techniques formés ou expérimentés en utilisant ce que l'on appelle l'anglais simplifié ou l'anglais technique simplifié , où les mots et la structure sont spécifiquement choisis et créés de manière à réduire l'ambiguïté ou le risque de confusion (par exemple, un « remplacer l'ancienne partie » pourrait être ambigu). faire référence à l'échange d'une pièce usée par une pièce non usée, ou au remplacement d'une pièce par une pièce utilisant une conception plus récente et, espérons-le, améliorée).

Modélisation de la fiabilité

La modélisation de la fiabilité est le processus de prévision ou de compréhension de la fiabilité d'un composant ou d'un système avant sa mise en œuvre. Deux types d'analyse qui sont souvent utilisés pour modéliser le comportement de disponibilité d'un système complet , y compris les effets des problèmes logistiques tels que l'approvisionnement en pièces de rechange, le transport et la main-d'œuvre, sont l'analyse par arbre de défaillance et les diagrammes fonctionnels de fiabilité . Au niveau des composants, les mêmes types d’analyses peuvent être utilisés conjointement avec d’autres. Les données d'entrée pour les modèles peuvent provenir de nombreuses sources, notamment les tests ; expérience opérationnelle préalable; données de terrain ; ainsi que des manuels de données provenant d'industries similaires ou connexes. Quelle que soit la source, toutes les données d’entrée du modèle doivent être utilisées avec la plus grande prudence, car les prédictions ne sont valables que dans les cas où le même produit a été utilisé dans le même contexte. En tant que telles, les prédictions ne sont souvent utilisées que pour comparer les alternatives.

Un schéma fonctionnel de fiabilité montrant un sous-système conçu redondant "1oo3" (1 sur 3)

Pour les prédictions au niveau des pièces, deux domaines d'investigation distincts sont courants :

Théorie de la fiabilité

La fiabilité est définie comme la probabilité qu'un appareil remplisse sa fonction prévue pendant une période de temps spécifiée et dans des conditions données. Mathématiquement, cela peut s'exprimer ainsi :

,

est la fonction de densité de probabilité de défaillance et est la durée de la période (qui est supposée commencer à partir du temps zéro).

Il y a quelques éléments clés de cette définition :

  1. La fiabilité repose sur la « fonction prévue » : en général, cela signifie un fonctionnement sans défaillance. Cependant, même si aucune partie individuelle du système ne tombe en panne, mais que le système dans son ensemble ne fait pas ce qui était prévu, cela est quand même imputé à la fiabilité du système. La spécification des exigences du système est le critère par rapport auquel la fiabilité est mesurée.
  2. La fiabilité s'applique à une période de temps spécifiée. En termes pratiques, cela signifie qu’un système a une chance spécifiée de fonctionner sans défaillance avant un certain temps . L'ingénierie de fiabilité garantit que les composants et les matériaux répondront aux exigences pendant la période spécifiée. A noter que des unités autres que le temps peuvent parfois être utilisées (par exemple « une mission », « cycles d'opérations »).
  3. La fiabilité est limitée à un fonctionnement dans des conditions indiquées (ou explicitement définies). Cette contrainte est nécessaire car il est impossible de concevoir un système dans des conditions illimitées. Un rover martien aura des conditions spécifiées différentes de celles d’une voiture familiale. L’environnement d’exploitation doit être pris en compte lors de la conception et des tests. Ce même rover peut être amené à fonctionner dans diverses conditions nécessitant un examen plus approfondi.
  4. Deux références notables sur la théorie de la fiabilité et ses fondements mathématiques et statistiques sont Barlow, RE et Proschan, F. (1982) et Samaniego, FJ (2007).

Paramètres quantitatifs de fiabilité du système – théorie

Les exigences quantitatives sont spécifiées à l'aide de paramètres de fiabilité . Le paramètre de fiabilité le plus courant est le temps moyen jusqu'à défaillance (MTTF), qui peut également être spécifié comme le taux de défaillance (exprimé sous forme de fréquence ou de fonction de densité de probabilité conditionnelle (PDF)) ou le nombre de défaillances au cours d'une période donnée. Ces paramètres peuvent être utiles pour les niveaux de système supérieurs et les systèmes fréquemment utilisés (c'est-à-dire les véhicules, les machines et les équipements électroniques). La fiabilité augmente à mesure que le MTTF augmente. Le MTTF est généralement spécifié en heures, mais peut également être utilisé avec d'autres unités de mesure, telles que les miles ou les cycles. L'utilisation des valeurs MTTF aux niveaux inférieurs du système peut être très trompeuse, surtout si elles ne spécifient pas les modes et mécanismes de défaillance associés (le F dans MTTF). [17]

Dans d’autres cas, la fiabilité est définie comme la probabilité de réussite de la mission. Par exemple, la fiabilité d'un vol régulier d'un avion peut être spécifiée sous forme de probabilité sans dimension ou de pourcentage, comme cela est souvent utilisé dans l'ingénierie de sécurité des systèmes .

Un cas particulier de réussite d’une mission est celui du dispositif ou du système à tir unique. Il s’agit d’appareils ou de systèmes qui restent relativement inactifs et ne fonctionnent qu’une seule fois. Les exemples incluent les airbags automobiles , les batteries thermiques et les missiles . La fiabilité à un seul coup est spécifiée comme une probabilité de succès ponctuel ou est incorporée dans un paramètre associé. La fiabilité d'un missile à coup unique peut être spécifiée comme condition requise pour la probabilité d'un coup sûr. Pour de tels systèmes, la probabilité de défaillance à la demande (PFD) est la mesure de la fiabilité – il s'agit en fait d'un nombre « d'indisponibilité ». Le PFD est dérivé du taux de défaillance (une fréquence d’occurrence) et du temps de mission pour les systèmes non réparables.

Pour les systèmes réparables, il est obtenu à partir du taux de défaillance, du temps moyen de réparation (MTTR) et de l'intervalle de test. Cette mesure peut ne pas être unique pour un système donné car elle dépend du type de demande. Outre les exigences au niveau du système, des exigences de fiabilité peuvent être spécifiées pour les sous-systèmes critiques. Dans la plupart des cas, les paramètres de fiabilité sont spécifiés avec des intervalles de confiance statistiques appropriés .

Tests de fiabilité

Le but des tests de fiabilité ou de la vérification de la fiabilité est de découvrir les problèmes potentiels liés à la conception le plus tôt possible et, en fin de compte, de garantir que le système répond à ses exigences de fiabilité. La fiabilité du produit dans tous les environnements tels que l'utilisation prévue, le transport ou le stockage pendant la durée de vie spécifiée doit être prise en compte. [10] Il s'agit d'exposer le produit à des conditions environnementales naturelles ou artificielles pour subir son action, d'évaluer les performances du produit dans les conditions environnementales d'utilisation, de transport et de stockage réelles, et d'analyser et d'étudier le degré d'influence des facteurs environnementaux. facteurs et leur mécanisme d’action. [24] Grâce à l'utilisation de divers équipements de test environnemental pour simuler les températures élevées, basses et élevées, ainsi que les changements de température dans l'environnement climatique, pour accélérer la réaction du produit dans l'environnement d'utilisation, pour vérifier s'il atteint le qualité attendue en R&D , conception et fabrication. [25]

La vérification de la fiabilité est également appelée test de fiabilité, qui fait référence à l'utilisation de modélisation, de statistiques et d'autres méthodes pour évaluer la fiabilité du produit en fonction de sa durée de vie et des performances attendues. [26] La plupart des produits sur le marché nécessitent des tests de fiabilité, tels que les automobiles, les circuits intégrés , les machines lourdes utilisées pour exploiter les ressources naturelles, les logiciels automobiles des avions. [27] [28]

Les tests de fiabilité peuvent être effectués à plusieurs niveaux et il existe différents types de tests. Les systèmes complexes peuvent être testés au niveau des composants, des circuits imprimés, des unités, des assemblages, des sous-systèmes et des systèmes. [29] (La nomenclature des niveaux de test varie selon les applications.) Par exemple, la réalisation de tests de dépistage des contraintes environnementales à des niveaux inférieurs, tels que des pièces détachées ou de petits assemblages, détecte les problèmes avant qu'ils ne provoquent des défaillances à des niveaux supérieurs. Les tests se déroulent à chaque niveau d'intégration via des tests complets du système, des tests de développement et des tests opérationnels, réduisant ainsi les risques du programme. Cependant, les tests n’atténuent pas le risque de manque de fiabilité.

Avec chaque test, des erreurs statistiques de type I et de type II peuvent être commises, en fonction de la taille de l'échantillon, de la durée du test, des hypothèses et du rapport de discrimination nécessaire. Il existe un risque de rejet incorrect d’une bonne conception (erreur de type I) et un risque d’acceptation incorrecte d’une mauvaise conception (erreur de type II).

Il n'est pas toujours possible de tester toutes les exigences du système. Certains systèmes sont d'un coût prohibitif à tester ; certains modes de défaillance peuvent prendre des années à être observés ; certaines interactions complexes donnent lieu à un grand nombre de cas de test possibles ; et certains tests nécessitent l'utilisation de plages de tests limitées ou d'autres ressources. Dans de tels cas, différentes approches de test peuvent être utilisées, telles que les tests de durée de vie (fortement) accélérés, la conception d'expériences et les simulations .

Le niveau souhaité de confiance statistique joue également un rôle dans les tests de fiabilité. La confiance statistique est augmentée en augmentant soit la durée du test, soit le nombre d'éléments testés. Les plans de test de fiabilité sont conçus pour atteindre la fiabilité spécifiée au niveau de confiance spécifié avec un nombre minimum d'unités de test et une durée de test minimale. Différents plans de test entraînent différents niveaux de risque pour le producteur et le consommateur. La fiabilité souhaitée, la confiance statistique et les niveaux de risque pour chaque côté influencent le plan de test final. Le client et le développeur doivent convenir à l'avance de la manière dont les exigences de fiabilité seront testées.

Un aspect clé des tests de fiabilité est de définir la « défaillance ». Bien que cela puisse paraître évident, il existe de nombreuses situations dans lesquelles il n’est pas clair si une panne est réellement la faute du système. Les variations des conditions de test, les différences entre les opérateurs, les conditions météorologiques et les situations inattendues créent des différences entre le client et le développeur du système. Une stratégie pour résoudre ce problème consiste à utiliser un processus de conférence de notation. Une conférence de notation comprend des représentants du client, du développeur, de l'organisme de test, de l'organisme de fiabilité et parfois des observateurs indépendants. Le processus de conférence de notation est défini dans l’énoncé des travaux. Chaque cas de test est considéré par le groupe et « noté » comme un succès ou un échec. Cette notation est le résultat officiel utilisé par l'ingénieur fiabilité.

Dans le cadre de la phase d'exigences, l'ingénieur fiabilité élabore une stratégie de tests avec le client. La stratégie de test fait des compromis entre les besoins de l'organisation de fiabilité, qui souhaite obtenir autant de données que possible, et les contraintes telles que le coût, le calendrier et les ressources disponibles. Des plans et des procédures de test sont élaborés pour chaque test de fiabilité et les résultats sont documentés.

Les tests de fiabilité sont courants dans l’industrie photonique. Des exemples de tests de fiabilité des lasers sont le test de durée de vie et le rodage . Ces tests consistent en un vieillissement très accéléré, dans des conditions contrôlées, d'un groupe de lasers. Les données collectées lors de ces tests de durée de vie sont utilisées pour prédire la durée de vie du laser selon les caractéristiques de fonctionnement prévues. [30]

Exigences des tests de fiabilité

Il existe de nombreux critères à tester en fonction du produit ou du processus sur lequel le test est effectué, et principalement cinq composants sont les plus courants : [31] [32]

  1. Durée de vie du produit
  2. Fonction prévue
  3. État de fonctionnement
  4. Probabilité de performance
  5. Exceptions utilisateur [33]

La durée de vie du produit peut être divisée en quatre différentes pour analyse. La durée de vie utile est la durée de vie économique estimée du produit, définie comme la durée d'utilisation avant que le coût de la réparation ne justifie l'utilisation continue du produit. La durée de garantie est que le produit doit remplir la fonction dans le délai spécifié. La durée de vie de conception est le moment où, lors de la conception du produit, le concepteur prend en compte la durée de vie du produit concurrent et le désir du client et s'assure que le produit n'entraîne pas l'insatisfaction du client. [34] [35]

Les exigences en matière de tests de fiabilité peuvent découler de toute analyse pour laquelle la première estimation de la probabilité de défaillance, du mode de défaillance ou de son effet doit être justifiée. Des preuves peuvent être générées avec un certain niveau de confiance par des tests. Avec les systèmes logiciels, la probabilité est un mélange de pannes logicielles et matérielles. Les exigences de fiabilité des tests sont problématiques pour plusieurs raisons. Un seul test est dans la plupart des cas insuffisant pour générer suffisamment de données statistiques. Les tests multiples ou les tests de longue durée sont généralement très coûteux. Certains tests sont tout simplement peu pratiques et les conditions environnementales peuvent être difficiles à prévoir sur le cycle de vie d'un système.

L'ingénierie de fiabilité est utilisée pour concevoir un programme de tests réaliste et abordable qui fournit des preuves empiriques que le système répond à ses exigences de fiabilité. Des niveaux de confiance statistiques sont utilisés pour répondre à certaines de ces préoccupations. Un certain paramètre est exprimé avec un niveau de confiance correspondant : par exemple, un MTBF de 1 000 heures à un niveau de confiance de 90 %. À partir de cette spécification, l'ingénieur fiabilité peut, par exemple, concevoir un test avec des critères explicites concernant le nombre d'heures et le nombre de pannes jusqu'à ce que l'exigence soit satisfaite ou échouée. Différentes sortes de tests sont possibles.

La combinaison du niveau de fiabilité requis et du niveau de confiance requis affecte grandement le coût de développement et le risque pour le client et le producteur. Il faut veiller à sélectionner la meilleure combinaison d'exigences, par exemple le rapport coût-efficacité. Les tests de fiabilité peuvent être effectués à différents niveaux, tels que les composants, les sous-systèmes et les systèmes . En outre, de nombreux facteurs doivent être pris en compte pendant les tests et le fonctionnement, tels que les températures et l'humidité extrêmes, les chocs, les vibrations ou d'autres facteurs environnementaux (comme la perte de signal, de refroidissement ou d'alimentation ; ou d'autres catastrophes telles qu'un incendie, une inondation, une chaleur excessive, des problèmes physiques). ou violations de la sécurité ou autres myriades de formes de dommages ou de dégradations). Pour les systèmes devant durer de nombreuses années, des tests de durée de vie accélérés peuvent être nécessaires.

Méthode de test

Une approche systématique des tests de fiabilité consiste tout d'abord à déterminer l'objectif de fiabilité, puis à effectuer des tests liés aux performances et à déterminer la fiabilité du produit. [36] Un test de vérification de la fiabilité dans les industries modernes doit clairement déterminer leur lien avec les performances globales de fiabilité du produit et l'impact des tests individuels sur le coût de la garantie et la satisfaction du client. [37]

Tests accélérés

L’objectif des tests de durée de vie accélérés (test ALT) est d’induire des défaillances sur le terrain en laboratoire à un rythme beaucoup plus rapide en fournissant un environnement plus rigoureux, mais néanmoins représentatif. Dans un tel test, le produit devrait échouer en laboratoire tout comme il aurait échoué sur le terrain, mais en beaucoup moins de temps. L’objectif principal d’un test accéléré est l’un des éléments suivants :

  • Pour découvrir les modes de défaillance
  • Prédire la durée de vie normale sur le terrain à partir de la vie en laboratoire à haute contrainte

Un programme de tests accélérés peut être décomposé en les étapes suivantes :

  • Définir l'objectif et la portée du test
  • Recueillir les informations requises sur le produit
  • Identifier le(s) stress
  • Déterminer le(s) niveau(s) de stress
  • Effectuez le test accéléré et analysez les données collectées.

Les moyens courants de déterminer une relation avec le stress de la vie sont :

  • Modèle d'Arrhénius
  • Modèle Eyring
  • Modèle de loi de puissance inverse
  • Modèle température-humidité
  • Modèle de température non thermique

Fiabilité du logiciel

La fiabilité des logiciels est un aspect particulier de l'ingénierie de la fiabilité. Il se concentre sur les fondements et les techniques permettant de rendre les logiciels plus fiables, c'est-à-dire résilients aux pannes. La fiabilité du système, par définition, inclut toutes les parties du système, y compris le matériel, les logiciels, l'infrastructure de support (y compris les interfaces externes critiques), les opérateurs et les procédures. Traditionnellement, l’ingénierie de fiabilité se concentre sur les parties matérielles critiques du système. Depuis l'utilisation généralisée de la technologie des circuits intégrés numériques , les logiciels sont devenus un élément de plus en plus critique de la plupart des appareils électroniques et, par conséquent, de presque tous les systèmes actuels. Par conséquent, la fiabilité des logiciels a gagné en importance dans le domaine de la fiabilité des systèmes.

Il existe cependant des différences significatives dans le comportement des logiciels et du matériel. La plupart du manque de fiabilité du matériel est le résultat d'une défaillance d'un composant ou d'un matériau qui empêche le système de remplir sa fonction prévue. La réparation ou le remplacement du composant matériel restaure le système à son état de fonctionnement d'origine. Cependant, les logiciels ne tombent pas en panne dans le même sens que les pannes matérielles. Au lieu de cela, le manque de fiabilité des logiciels est le résultat de résultats imprévus des opérations logicielles. Même des programmes logiciels relativement petits peuvent avoir des combinaisons d'entrées et d'états astronomiques qu'il est impossible de tester de manière exhaustive. La restauration du logiciel à son état d'origine ne fonctionne que jusqu'à ce que la même combinaison d'entrées et d'états aboutisse au même résultat inattendu. L’ingénierie de la fiabilité logicielle doit en tenir compte.

Malgré cette différence dans la source de défaillance entre logiciel et matériel, plusieurs modèles de fiabilité logicielle basés sur des statistiques ont été proposés pour quantifier ce que nous expérimentons avec les logiciels : plus le logiciel est exécuté longtemps, plus la probabilité qu'il soit finalement utilisé dans un environnement non testé est élevée. manière et présentent un vice latent qui entraîne une défaillance (Shooman 1987), (Musa 2005), (Denney 2005).

Comme pour le matériel, la fiabilité des logiciels dépend de bonnes exigences, conception et mise en œuvre. L'ingénierie de la fiabilité logicielle repose en grande partie sur un processus d'ingénierie logicielle discipliné pour anticiper et concevoir des conséquences imprévues . Il existe davantage de chevauchements entre l’ingénierie de la qualité logicielle et l’ingénierie de la fiabilité logicielle qu’entre la qualité et la fiabilité du matériel. Un bon plan de développement logiciel est un aspect clé du programme de fiabilité logicielle. Le plan de développement logiciel décrit les normes de conception et de codage, les examens par les pairs , les tests unitaires , la gestion de la configuration , les métriques logicielles et les modèles logiciels à utiliser pendant le développement logiciel.

Une mesure de fiabilité courante est le nombre de défauts logiciels par ligne de code (FLOC), généralement exprimé en défauts pour mille lignes de code. Cette mesure, ainsi que le temps d'exécution du logiciel, est essentielle à la plupart des modèles et estimations de fiabilité des logiciels. La théorie est que la fiabilité du logiciel augmente à mesure que le nombre de défauts (ou la densité de défauts) diminue. Il est toutefois difficile d'établir un lien direct entre la densité des pannes et le temps moyen entre les pannes, en raison de la façon dont les pannes logicielles sont réparties dans le code, de leur gravité et de la probabilité de la combinaison d'entrées nécessaire pour rencontrer la panne. Néanmoins, la densité des défauts constitue un indicateur utile pour l’ingénieur fiabilité. D'autres mesures logicielles, telles que la complexité, sont également utilisées. Cette mesure reste controversée, car les changements dans les pratiques de développement et de vérification des logiciels peuvent avoir un impact considérable sur les taux globaux de défauts.

Les tests logiciels sont un aspect important de la fiabilité des logiciels. Même le meilleur processus de développement logiciel entraîne des défauts logiciels qui sont presque indétectables jusqu'à ce qu'ils soient testés. Le logiciel est testé à plusieurs niveaux, en commençant par les unités individuelles , en passant par l'intégration et les tests complets du système . À toutes les phases de test, les défauts logiciels sont découverts, corrigés et retestés. Les estimations de fiabilité sont mises à jour en fonction de la densité des pannes et d'autres mesures. Au niveau du système, les données sur le temps moyen entre les pannes peuvent être collectées et utilisées pour estimer la fiabilité. Contrairement au matériel, effectuer exactement le même test sur exactement la même configuration logicielle n’apporte pas une confiance statistique accrue. Au lieu de cela, la fiabilité des logiciels utilise différentes mesures, telles que la couverture du code .

Le modèle de maturité des capacités du Software Engineering Institute est un moyen courant d'évaluer le processus global de développement logiciel à des fins de fiabilité et de qualité.

Fiabilité structurelle

La fiabilité structurelle ou la fiabilité des structures est l'application de la théorie de la fiabilité au comportement des structures . Il est utilisé à la fois dans la conception et la maintenance de différents types de structures, notamment les structures en béton et en acier. [38] [39] Dans les études de fiabilité structurelle, les charges et les résistances sont modélisées comme variables probabilistes. En utilisant cette approche, la probabilité de défaillance d'une structure est calculée.

Comparaison avec l'ingénierie de sécurité

La fiabilité pour la sécurité et la fiabilité pour la disponibilité sont souvent étroitement liées. La perte de disponibilité d'un système d'ingénierie peut coûter de l'argent. Si un système de métro n’est pas disponible, l’opérateur du métro perdra de l’argent pour chaque heure de panne du système. L’exploitant du métro perdra encore plus d’argent si la sécurité est compromise. La définition de la fiabilité est liée à la probabilité de ne pas rencontrer de panne. Une panne peut entraîner une perte de sécurité, une perte de disponibilité ou les deux. Il n'est pas souhaitable de perdre la sécurité ou la disponibilité d'un système critique.

L'ingénierie de fiabilité vise à minimiser globalement les défaillances susceptibles d'entraîner des pertes financières pour l'entité responsable, tandis que l'ingénierie de sécurité se concentre sur la minimisation d'un ensemble spécifique de types de défaillances pouvant généralement entraîner des pertes de vie, des blessures ou des dommages matériels.

Les aléas de fiabilité pourraient se transformer en incidents entraînant une perte de revenus pour l'entreprise ou le client, par exemple en raison des coûts directs et indirects liés à : la perte de production due à l'indisponibilité du système ; des demandes inattendues de pièces de rechange, élevées ou faibles ; les frais de réparation ; homme heures; refontes ou interruptions de la production normale. [40]

L'ingénierie de sécurité est souvent très spécifique et ne concerne que certaines industries, applications ou domaines étroitement réglementés. Il se concentre principalement sur les risques pour la sécurité des systèmes qui pourraient entraîner des accidents graves, notamment : des pertes de vie ; destruction de matériel ; ou des dommages environnementaux. En tant que tel, les exigences de fiabilité fonctionnelle du système sont souvent extrêmement élevées. Bien qu’elle traite les pannes indésirables au même titre que l’ingénierie de fiabilité, elle se concentre cependant moins sur les coûts directs et ne s’intéresse pas aux actions de réparation après panne. Une autre différence réside dans le niveau d'impact des défaillances sur la société, conduisant à une tendance à un contrôle strict de la part des gouvernements ou des organismes de réglementation (par exemple, les industries nucléaire, aérospatiale, de la défense, ferroviaire et pétrolière). [40]

Tolérance aux pannes

La sécurité peut être augmentée à l'aide d'un système redondant à vérification croisée 2oo2. La disponibilité peut être augmentée en utilisant une redondance « 1oo2 » (1 sur 2) au niveau d'une pièce ou d'un système. Si les deux éléments redondants ne sont pas d'accord, l'élément le plus permissif maximisera la disponibilité. Il ne faut jamais compter sur un système 1oo2 pour la sécurité. Les systèmes tolérants aux pannes reposent souvent sur une redondance supplémentaire (par exemple, une logique de vote 2oo3 ) dans laquelle plusieurs éléments redondants doivent se mettre d'accord sur une action potentiellement dangereuse avant qu'elle ne soit exécutée. Cela augmente à la fois la disponibilité et la sécurité au niveau du système. Il s'agit d'une pratique courante dans les systèmes aérospatiaux qui nécessitent une disponibilité continue et ne disposent pas d'un mode de sécurité . Par exemple, les avions peuvent utiliser une triple redondance modulaire pour les ordinateurs de vol et les gouvernes (y compris parfois différents modes de fonctionnement, par exemple électrique/mécanique/hydraulique), car ceux-ci doivent toujours être opérationnels, du fait qu'il n'y a pas de positions par défaut « sûres ». pour les surfaces de contrôle telles que les gouvernails ou les ailerons lorsque l'avion est en vol.

Fiabilité de base et fiabilité de mission

L'exemple ci-dessus d'un système tolérant aux pannes 2oo3 augmente à la fois la fiabilité de la mission ainsi que la sécurité. Cependant, la fiabilité « de base » du système sera dans ce cas encore inférieure à celle d'un système non redondant (1oo1) ou 2oo2. L'ingénierie de fiabilité de base couvre toutes les pannes, y compris celles qui pourraient ne pas entraîner de panne du système, mais entraîner des coûts supplémentaires en raison : des actions de réparation de maintenance ; logistique; pièces de rechange, etc. Par exemple, le remplacement ou la réparation d'un canal défectueux dans un système de vote 2oo3 (le système fonctionne toujours, bien qu'avec un canal défectueux, il soit en fait devenu un système 2oo2) contribue au manque de fiabilité de base mais pas au manque de fiabilité de la mission. À titre d'exemple, la panne du feu arrière d'un avion n'empêchera pas l'avion de voler (et n'est donc pas considérée comme un échec de mission), mais elle doit être corrigée (avec un coût correspondant, et contribue donc à les niveaux de non-fiabilité de base).

Détectabilité et pannes de cause commune

Lors de l'utilisation de systèmes tolérants aux pannes (redondants) ou de systèmes équipés de fonctions de protection, la détectabilité des pannes et la prévention des pannes de cause commune deviennent primordiales pour un fonctionnement sûr et/ou la fiabilité de la mission.

Fiabilité versus qualité (Six Sigma)

La qualité se concentre souvent sur les défauts de fabrication pendant la phase de garantie. La fiabilité examine l'intensité des défaillances sur toute la durée de vie d'un produit ou d'un système d'ingénierie, de la mise en service au déclassement. Six Sigma trouve ses racines dans le contrôle statistique de la qualité de la fabrication. L'ingénierie de la fiabilité est une partie spécialisée de l'ingénierie des systèmes. Le processus d’ingénierie des systèmes est un processus de découverte qui diffère souvent d’un processus de fabrication. Un processus de fabrication est souvent axé sur des activités répétitives qui permettent d'obtenir des résultats de haute qualité avec un coût et un délai minimum. [41]

Le terme d'usage courant « qualité d'un produit » est généralement interprété comme désignant son degré d'excellence inhérent. Dans l'industrie, une définition plus précise de la qualité comme « la conformité aux exigences ou aux spécifications au début de l'utilisation » est utilisée. En supposant que les spécifications du produit final capturent de manière adéquate les exigences d'origine et les besoins du client/système, le niveau de qualité peut être mesuré comme la fraction des unités de produit expédiées qui répondent aux spécifications. [42] La qualité des produits manufacturés se concentre souvent sur le nombre de réclamations au titre de la garantie pendant la période de garantie.

La qualité est un instantané du début de la vie jusqu'à la période de garantie et est liée au contrôle des spécifications du produit de niveau inférieur. Cela inclut les défauts au temps zéro, c'est-à-dire lorsque les erreurs de fabrication ont échappé au contrôle qualité final. En théorie, le niveau de qualité pourrait être décrit par une seule fraction de produits défectueux. La fiabilité, en tant que partie intégrante de l'ingénierie des systèmes, agit davantage comme une évaluation continue des taux de défaillance sur de nombreuses années. Théoriquement, tous les éléments échoueront sur une période de temps infinie. [43] Les défauts qui apparaissent au fil du temps sont appelés retombées sur la fiabilité. Pour décrire les retombées de fiabilité, un modèle probabiliste décrivant la fraction des retombées au fil du temps est nécessaire. C’est ce qu’on appelle le modèle de distribution de la vie. [42] Certains de ces problèmes de fiabilité peuvent être dus à des problèmes de conception inhérents, qui peuvent exister même si le produit est conforme aux spécifications. Même les articles parfaitement produits échoueront au fil du temps en raison d'un ou plusieurs mécanismes de défaillance (par exemple en raison d'une erreur humaine ou de facteurs mécaniques, électriques et chimiques). Ces problèmes de fiabilité peuvent également être influencés par des niveaux de variation acceptables lors de la production initiale.

La qualité et la fiabilité sont donc liées à la fabrication. La fiabilité s'adresse davantage aux clients qui se concentrent sur les pannes tout au long de la vie du produit, comme l'armée, les compagnies aériennes ou les chemins de fer. Les articles qui ne sont pas conformes aux spécifications du produit auront généralement de moins bons résultats en termes de fiabilité (ayant un MTTF inférieur), mais cela ne doit pas toujours être le cas. La quantification mathématique complète (dans des modèles statistiques) de cette relation combinée est en général très difficile, voire pratiquement impossible. Dans les cas où les écarts de fabrication peuvent être réduits efficacement, les outils six sigma se sont révélés utiles pour trouver des solutions de processus optimales susceptibles d'augmenter la qualité et la fiabilité. Six Sigma peut également aider à concevoir des produits plus robustes aux défaillances induites par la fabrication et aux défauts de mortalité infantile dans les systèmes d'ingénierie et les produits manufacturés.

Contrairement à Six Sigma, les solutions d'ingénierie de fiabilité sont généralement trouvées en se concentrant sur les tests de fiabilité et la conception du système. Les solutions peuvent être trouvées de différentes manières, par exemple en simplifiant un système pour permettre de mieux comprendre les mécanismes de défaillance impliqués ; effectuer des calculs détaillés des niveaux de contrainte des matériaux permettant de déterminer des facteurs de sécurité appropriés ; trouver d'éventuelles conditions de charge anormales du système et les utiliser pour augmenter la robustesse d'une conception aux mécanismes de défaillance liés aux écarts de fabrication. De plus, l'ingénierie de fiabilité utilise des solutions au niveau du système, comme la conception de systèmes redondants et tolérants aux pannes pour les situations nécessitant une haute disponibilité (voir Ingénierie de fiabilité vs ingénierie de sécurité ci-dessus).

Remarque : Un « défaut » dans la littérature six sigma/qualité n'est pas la même chose qu'un « échec » (échec sur le terrain | par exemple, élément fracturé) en termes de fiabilité. Un défaut six sigma/qualité fait généralement référence à la non-conformité à une exigence (par exemple une fonctionnalité de base ou une dimension clé). Les éléments peuvent toutefois tomber en panne avec le temps, même si ces conditions sont toutes remplies. La qualité ne consiste généralement pas à poser la question cruciale « les exigences sont-elles réellement correctes ? », alors que la fiabilité l'est.

Évaluation opérationnelle de la fiabilité

Une fois les systèmes ou les pièces produits, l’ingénierie de fiabilité tente de surveiller, d’évaluer et de corriger les déficiences. La surveillance comprend la surveillance électronique et visuelle des paramètres critiques identifiés lors de la phase de conception de l'analyse de l'arbre de défaillances. La collecte de données dépend fortement de la nature du système. La plupart des grandes organisations disposent de groupes de contrôle qualité qui collectent des données sur les pannes des véhicules, des équipements et des machines. Les échecs des produits de consommation sont souvent suivis par le nombre de retours. Pour les systèmes en stockage dormant ou en attente, il est nécessaire d'établir un programme de surveillance formel pour inspecter et tester des échantillons aléatoires. Toute modification apportée au système, telle que des mises à niveau sur le terrain ou des réparations de rappel, nécessite des tests de fiabilité supplémentaires pour garantir la fiabilité de la modification. Puisqu’il n’est pas possible d’anticiper tous les modes de défaillance d’un système donné, notamment ceux comportant un élément humain, des défaillances se produiront. Le programme de fiabilité comprend également une analyse systématique des causes profondes qui identifie les relations causales impliquées dans la défaillance afin que des mesures correctives efficaces puissent être mises en œuvre. Lorsque cela est possible, les pannes du système et les actions correctives sont signalées à l'organisme d'ingénierie de fiabilité.

Certaines des méthodes les plus courantes à appliquer à une évaluation opérationnelle de la fiabilité sont les systèmes de rapport, d'analyse et d'action corrective des pannes (FRACAS). Cette approche systématique développe une évaluation de la fiabilité, de la sécurité et de la logistique basée sur le reporting des pannes/incidents, la gestion, l'analyse et les actions correctives/préventives. Les organisations adoptent aujourd'hui cette méthode et utilisent des systèmes commerciaux (tels que les applications Web FRACAS) qui leur permettent de créer un référentiel de données sur les pannes/incidents à partir duquel des statistiques peuvent être dérivées pour afficher des mesures précises et authentiques de fiabilité, de sécurité et de qualité.

Il est extrêmement important pour une organisation d’adopter un système FRACAS commun pour tous les produits finaux. En outre, cela devrait permettre de capturer les résultats des tests de manière pratique. L’incapacité à adopter un système intégré facile à utiliser (en termes de facilité de saisie des données pour les ingénieurs de terrain et les ingénieurs des ateliers de réparation) et facile à entretenir entraînera probablement un échec du programme FRACAS lui-même.

Certains des résultats courants d'un système FRACAS incluent le temps moyen entre pannes sur le terrain, le MTTR, la consommation de pièces de rechange, la croissance de la fiabilité, la répartition des pannes/incidents par type, emplacement, numéro de pièce, numéro de série et symptôme.

L'utilisation de données antérieures pour prédire la fiabilité de nouveaux systèmes/éléments comparables peut être trompeuse dans la mesure où la fiabilité dépend du contexte d'utilisation et peut être affectée par de petits changements dans la conception/la fabrication.

Organisations de fiabilité

Les systèmes de toute complexité significative sont développés par des organisations de personnes, telles qu'une entreprise commerciale ou une agence gouvernementale . L'organisation de l'ingénierie de fiabilité doit être cohérente avec la structure organisationnelle de l'entreprise . Pour les petits systèmes non critiques, l’ingénierie de fiabilité peut être informelle. À mesure que la complexité augmente, le besoin d’une fonction de fiabilité formelle se fait sentir. La fiabilité étant importante pour le client, celui-ci peut même spécifier certains aspects de l'organisation de la fiabilité.

Il existe plusieurs types courants d’organismes de fiabilité. Le chef de projet ou l'ingénieur en chef peut employer directement un ou plusieurs ingénieurs fiabilité. Dans les grandes organisations, il existe généralement une organisation d'assurance produit ou d'ingénierie spécialisée , qui peut inclure la fiabilité, la maintenabilité , la qualité , la sécurité, les facteurs humains , la logistique , etc. Dans ce cas, l'ingénieur fiabilité relève du responsable de l'assurance produit ou du responsable de l'ingénierie spécialisée. .

Dans certains cas, une entreprise peut souhaiter créer un organisme de fiabilité indépendant. Ceci est souhaitable pour garantir que la fiabilité du système, qui est souvent coûteuse et longue, ne soit pas indûment compromise en raison des pressions budgétaires et de calendrier. Dans de tels cas, l’ingénieur fiabilité travaille quotidiennement sur le projet, mais est en fait employé et payé par une organisation distincte au sein de l’entreprise.

L'ingénierie de la fiabilité étant essentielle à la conception initiale d'un système, il est devenu courant que les ingénieurs de la fiabilité, quelle que soit la structure de l'organisation, travaillent au sein d'une équipe produit intégrée .

Éducation

Certaines universités proposent des diplômes d'études supérieures en ingénierie de la fiabilité. Les autres professionnels de la fiabilité possèdent généralement un diplôme en physique d’un programme universitaire ou collégial. De nombreux programmes d'ingénierie proposent des cours de fiabilité, et certaines universités proposent des programmes complets d'ingénierie de fiabilité. Un ingénieur en fiabilité doit être enregistré en tant qu'ingénieur professionnel par la loi de l'État ou de la province, mais tous les professionnels de la fiabilité ne sont pas des ingénieurs. Des ingénieurs en fiabilité sont nécessaires dans les systèmes où la sécurité publique est menacée. Il existe de nombreuses conférences professionnelles et programmes de formation industrielle disponibles pour les ingénieurs en fiabilité. Plusieurs organisations professionnelles existent pour les ingénieurs en fiabilité, notamment l'American Society for Quality Reliability Division (ASQ-RD), [44] l' IEEE Reliability Society , l' American Society for Quality (ASQ), [45] et la Society of Reliability Engineers (SRE). ). [46]

Voir également

Les références

  1. ^ Institut d'ingénieurs en électricité et électronique (1990) Dictionnaire informatique standard IEEE : une compilation de glossaires informatiques standard IEEE. New York, État de New York ISBN  1-55937-079-3
  2. ^ RCM II, Reliability Centered Maintenance, Deuxième édition 2008, pages 250-260, le rôle de l'analyse actuarielle dans la fiabilité
  3. ^ Pourquoi vous ne pouvez pas prédire la fiabilité des produits électroniques (PDF) . 2012 ARS, Europe. Warsaw, Pologne.
  4. ^ ab O'Connor, Patrick DT (2002), Practical Reliability Engineering (Quatrième éd.), John Wiley & Sons, New York. ISBN978-0-4708-4462-5 . 
  5. ^ Aven, Terje (1er juin 2017). "Améliorer les fondements et la pratique de l'ingénierie de fiabilité". Actes de l'Institution of Mechanical Engineers, Partie O : Journal of Risk and Reliability . 231 (3) : 295-305. est ce que je : 10.1177/1748006X17699478 . ISSN1748-006X  .
  6. ^ Saleh, JH et Marais, Ken, « Faits saillants de l'histoire précoce (et pré-) de l'ingénierie de la fiabilité », Ingénierie de la fiabilité et sécurité des systèmes, volume 91, numéro 2, février 2006, pages 249-256.
  7. ^ Juran, Joseph et Gryna, Frank, Quality Control Handbook, quatrième édition, McGraw-Hill, New York, 1988, p.24.3
  8. ^ Fiabilité des équipements électroniques militaires ; rapport . Washington : Département de la Défense des États-Unis . 4 juin 1957. hdl :2027/mdp.39015013918332.
  9. ^ Wong, Kam, "Théorie du champ unifié (échec)-Décès de la courbe de la baignoire", Actes du RAMS annuel, 1981, pp 402-408
  10. ^ ab Tang, Jianfeng; Chen, Jie ; Zhang, Chun ; Guo, Qing ; Chu, Jie (1er mars 2013). "Exploration sur la conception, l'optimisation et la vérification de la fiabilité des procédés pour la colonne de désacidification du gaz naturel appliquée aux champs offshore". Recherche et conception en génie chimique . 91 (3) : 542-551. Code bibliographique :2013CERD...91..542T. est ce que je :10.1016/j.cherd.2012.09.018. ISSN0263-8762  .
  11. ^ Ingénierie pratique de la fiabilité, P. O'Conner – 2012
  12. ^ "Articles – D'où viennent les ingénieurs en fiabilité ? – ReliabilityWeb.com : Une culture de fiabilité" .
  13. ^ Utilisation des modes de défaillance, des mécanismes et de l'analyse des effets dans les enquêtes sur les événements indésirables liés aux dispositifs médicaux, S. Cheng, D. Das et M. Pecht, ICBO : Conférence internationale sur l'ontologie biomédicale, Buffalo, NY, 26-30 juillet 2011, pp. 340-345.
  14. ^ Administration fédérale de l'aviation (19 mars 2013). Manuel de sécurité du système. Département américain des transports . Récupéré le 2 juin 2013 .
  15. ^ Fiabilité Hotwire – juillet 2015
  16. ^ Fiabilité, maintenabilité et méthodes pratiques de gestion des risques pour les ingénieurs, y compris la maintenance et la sécurité centrées sur la fiabilité – David J. Smith (2011)
  17. ^ ab Ingénierie de la fiabilité pratique, O'Conner, 2001
  18. ^ Théorie de la fiabilité du système, deuxième édition, Rausand et Hoyland – 2004
  19. ^ The Blame Machine, Pourquoi l'erreur humaine provoque des accidents – Whittingham, 2007
  20. ^ Barnard, RWA (2008). « Qu'est-ce qui ne va pas avec l'ingénierie de la fiabilité ? » (PDF) . Conseil Lambda . Récupéré le 30 octobre 2014 .
  21. ^ http://www.dfrsolutions.com/hubfs/DfR_Solutions_Website/Resources-Archived/Presentations/2016/Design-for-Reliability-Best-Practices.pdf?t=1505335343846 [ URL nue PDF ]
  22. ^ Salvatore Distefano, Antonio Puliafito : Évaluation de la fiabilité avec des schémas fonctionnels de fiabilité dynamique et des arbres de défaillances dynamiques. IEEETrans. Fiable Sec. Calculer. 6(1) : 4-17 (2009)
  23. ^ Les sept samouraïs de l'ingénierie des systèmes, James Martin (2008) [ lien mort ]
  24. ^ Zhang, J. ; Geiger, C. ; Sun, F. (janvier 2016). "Une approche système de la conception des tests de vérification de la fiabilité". Symposium annuel 2016 sur la fiabilité et la maintenabilité (RAMS) . p. 1 à 6. est ce que je :10.1109/RAMS.2016.7448014. ISBN 978-1-5090-0249-8. S2CID24770411  .
  25. ^ Dai, Wei; Maropoulos, Paul G. ; Zhao, Yu (2 janvier 2015). "Modélisation de la fiabilité et vérification des processus de fabrication basées sur la gestion des connaissances sur les processus". Journal international de fabrication intégrée par ordinateur . 28 (1) : 98-111. est ce que je :10.1080/0951192X.2013.834462. ISSN0951-192X  . S2CID32995968  .
  26. ^ "Vérification de la fiabilité des processeurs AI et ML - Livre blanc". www.allaboutcircuits.com . Récupéré le 11 décembre 2020 .
  27. ^ Weber, Wolfgang; Tondok, Heidemarie; Bachmayer, Michael (1er juillet 2005). "Amélioration de la sécurité des logiciels par des arbres de pannes : expériences d'une application aux logiciels critiques pour le vol". Ingénierie de fiabilité et sécurité des systèmes . Sûreté, fiabilité et sécurité des systèmes informatiques industriels. 89 (1) : 57-70. est ce que je :10.1016/j.ress.2004.08.007. ISSN0951-8320  .
  28. ^ Ren, Yuanqiang; Tao, Jingya ; Xue, Zhaopeng (janvier 2020). "Conception d'une couche de réseau de transducteurs piézoélectriques à grande échelle et sa vérification de fiabilité pour les structures spatiales". Capteurs . 20 (15) : 4344. Bibcode :2020Senso..20.4344R. est ce que je : 10.3390/s20154344 . PMC7435873 .PMID  32759794. 
  29. ^ Ben-Gal I., Herer Y. et Raz T. (2003). "Procédure d'inspection auto-correctrice en cas d'erreurs d'inspection" (PDF) . Transactions de l'IIE sur la qualité et la fiabilité, 34(6), pp. 529-540. {{cite journal}}: Citer le journal nécessite |journal=( aide )
  30. ^ "Test de fiabilité Yelo" . Récupéré le 6 novembre 2014 .
  31. ^ Matheson, Granville J. (24 mai 2019). "Nous devons parler de fiabilité : mieux utiliser les études test-retest pour la conception et l'interprétation des études". PeerJ . 7 : e6918. est ce que je : 10.7717/peerj.6918 . ISSN2167-8359  . PMC6536112 .PMID  31179173. 
  32. ^ Pronskikh, Vitaly (1er mars 2019). "Modélisation et simulation informatiques : accroître la fiabilité en dissociant la vérification et la validation". Esprits et machines . 29 (1) : 169-186. est ce que je :10.1007/s11023-019-09494-7. ISSN1572-8641  . OSTI  1556973. S2CID  84187280.
  33. ^ Halamay, DA; Starrett, M. ; Brekken, TKA (2019). "Tests du matériel des chauffe-eau électriques fournissant un stockage d'énergie et une réponse à la demande grâce à un contrôle prédictif modèle". Accès IEEE . 7 : 139047-139057. Code bibliographique :2019IEEEEA...7m9047H. est ce que je : 10.1109/ACCESS.2019.2932978 . ISSN2169-3536  .
  34. ^ Chen, Jing; Wang, Yinglong ; Guo, Ying ; Jiang, Mingyue (19 février 2019). "Une approche de test métamorphique pour les séquences d'événements". PLOS UN . 14 (2) : e0212476. Code bibliographique :2019PLoSO..1412476C. est ce que je : 10.1371/journal.pone.0212476 . ISSN1932-6203  . PMC 6380623 . PMID  30779769. 
  35. ^ Bieńkowska, Agnieszka ; Tworek, Katarzyna ; Zabłocka-Kluczka, Anna (janvier 2020). "Vérification du modèle de fiabilité organisationnelle dans la phase d'escalade de la crise provoquée par la pandémie de COVID-19". Durabilité . 12 (10) : 4318. est ce que je : 10.3390/su12104318 .
  36. ^ Jenihhin, M. ; Lai, X. ; Ghasempouri, T. ; Raik, J. (octobre 2018). "Vers la vérification multidimensionnelle : là où le fonctionnel rencontre le non fonctionnel". Conférence IEEE Nordic Circuits and Systems 2018 (NORCAS) : NORCHIP et Symposium international sur les systèmes sur puce (SoC) . p. 1 à 7. arXiv : 1908.00314 . est ce que je :10.1109/NORCHIP.2018.8573495. ISBN 978-1-5386-7656-1. S2CID56170277  .
  37. ^ Rackwitz, R. (21 février 2000). "Optimisation - la base de la création de code et de la vérification de la fiabilité". Sécurité structurelle . 22 (1) : 27-60. est ce que je :10.1016/S0167-4730(99)00037-5. ISSN0167-4730  .
  38. ^ Piryonèse, Sayed Madeh; Tavakolan, Mehdi (9 janvier 2017). "Un modèle de programmation mathématique pour résoudre les problèmes d'optimisation coût-sécurité (CSO) dans la maintenance des structures". Journal KSCE de génie civil . 21 (6) : 2226-2234. est ce que je :10.1007/s12205-017-0531-z. S2CID113616284  .
  39. ^ Okasha, NM et Frangopol, DM (2009). Optimisation multi-objectifs axée sur la durée de vie de la maintenance structurelle en tenant compte de la fiabilité du système, de la redondance et du coût du cycle de vie à l'aide de GA. Sécurité structurelle, 31(6), 460-474 .
  40. ^ ab Ingénierie de la fiabilité et de la sécurité – Verma, Ajit Kumar, Ajit, Srividya, Karanki, Durga Rao (2010)
  41. ^ Lignes directrices INCOSE SE
  42. ^ un b "8.1.1.1. Qualité contre fiabilité" .
  43. ^ "La deuxième loi de la thermodynamique, de l'évolution et de la probabilité".
  44. ^ Division de la Société américaine pour la fiabilité de la qualité (ASQ-RD)
  45. ^ Société américaine pour la qualité (ASQ)
  46. ^ Société des ingénieurs en fiabilité (SRE)
  • N. Diaz, R. Pascual, F. Ruggeri, E. López Droguett (2017). "Modélisation de la politique de remplacement par âge selon plusieurs échelles de temps et profils d'utilisation stochastiques". Revue internationale d'économie de production . 188 : 22-28. est ce que je :10.1016/j.ijpe.2017.03.009.{{cite journal}}: Maintenance CS1 : noms multiples : liste des auteurs ( lien )

Lectures complémentaires

  • Barlow, RE et Proscan, F. (1981) Théorie statistique de la fiabilité et des tests de durée de vie, pour commencer par Press, Silver Springs, MD.
  • Blanchard, Benjamin S. (1992), Ingénierie et gestion logistique (quatrième éd.), Prentice-Hall, Inc., Englewood Cliffs, New Jersey.
  • Breitler, Alan L. et Sloan, C. (2005), Actes de la conférence T&E Days de l'American Institute of Aeronautics and Astronautics (AIAA), Nashville, Tennessee, décembre 2005 : Prédiction de la fiabilité du système : vers une approche générale utilisant un Réseau neuronal.
  • Ebeling, Charles E., (1997), Introduction à l'ingénierie de la fiabilité et de la maintenabilité , McGraw-Hill Companies, Inc., Boston.
  • Denney, Richard (2005) Réussir les cas d'utilisation : travailler intelligemment pour offrir de la qualité. Éditions professionnelles Addison-Wesley. ISBN. Discute de l'utilisation de l'ingénierie de la fiabilité logicielle dans le développement de logiciels axés sur des cas d'utilisation .
  • Gano, Dean L. (2007), « Apollo Root Cause Analysis » (troisième édition), Apollonian Publications, LLC., Richland, Washington
  • Holmes, Oliver Wendell Sr. Le chef-d'œuvre du diacre
  • Horsburgh, Peter (2018), « 5 habitudes d'un ingénieur en fiabilité extraordinaire », Reliability Web
  • Kapur, KC et Lamberson, LR, (1977), Reliability in Engineering Design , John Wiley & Sons, New York.
  • Kececioglu, Dimitri, (1991) "Manuel d'ingénierie de la fiabilité", Prentice-Hall, Englewood Cliffs, New Jersey
  • Trevor Kletz (1998) Usines de traitement : un manuel pour une conception intrinsèquement plus sûre CRC ISBN 1-56032-619-0 
  • Leemis, Lawrence, (1995) Fiabilité : modèles probabilistes et méthodes statistiques , 1995, Prentice-Hall. ISBN0-13-720517-1 
  • Lee, Frank (2005). Prévention des pertes dans les industries de transformation (3e éd.). Elsevier. ISBN 978-0-7506-7555-0.
  • MacDiarmid, Preston ; Morris, Seymour ; et al., (1995), Reliability Toolkit: Commercial Practices Edition , Reliability Analysis Center et Rome Laboratory, Rome, New York.
  • Modarres, Mohammed ; Kaminsky, Mark ; Krivtsov , Vasiliy (1999), Ingénierie de la fiabilité et analyse des risques : un guide pratique , CRC Press, ISBN 0-8247-2000-8 . 
  • Musa, John (2005) Ingénierie de la fiabilité logicielle : des logiciels plus fiables, plus rapides et moins chers, 2e. Édition, AuthorHouse. ISBN
  • Neubeck, Ken (2004) « Analyse de fiabilité pratique », Prentice Hall, New Jersey
  • Neufelder, Ann Marie, (1993), Assurer la fiabilité des logiciels , Marcel Dekker, Inc., New York.
  • O'Connor, Patrick DT (2002), Practical Reliability Engineering (quatrième éd.), John Wiley & Sons, New York. ISBN978-0-4708-4462-5 . 
  • Samaniego, Francisco J. (2007) "Signatures système et leurs applications en fiabilité technique", Springer (Série internationale en recherche opérationnelle et sciences de gestion), New York.
  • Shooman, Martin, (1987), Génie logiciel : conception, fiabilité et gestion , McGraw-Hill, New York.
  • Tobias, Trindade, (1995), Fiabilité appliquée , Chapman & Hall/CRC, ISBN 0-442-00469-9 
  • Série Springer en ingénierie de la fiabilité
  • Nelson, Wayne B., (2004), Tests accélérés : modèles statistiques, plans de test et analyse des données , John Wiley & Sons, New York, ISBN 0-471-69736-2 
  • Bagdonavicius, V., Nikulin, M., (2002), "Modèles de vie accélérés. Modélisation et analyse statistique", CHAPMAN&HALL/CRC, Boca Raton, ISBN 1-58488-186-0 
  • Todinov, M. (2016), « Modèles de fiabilité et de risque : définition des exigences de fiabilité », Wiley, 978-1-118-87332-8.

Normes, spécifications et manuels américains

  • Numéro de rapport aérospatial : TOR-2007(8583)-6889 Exigences du programme de fiabilité pour les systèmes spatiaux , The Aerospace Corporation (10 juillet 2007)
  • DoD 3235.1-H (3e édition) Test et évaluation de la fiabilité, de la disponibilité et de la maintenabilité du système (A Primer) , Département américain de la Défense (mars 1982).
  • NASA GSFC 431-REF-000370 Flight Assurance Procedure: Performing a Failure Mode and Effects Analysis , National Aeronautics and Space Administration Goddard Space Flight Center (10 août 1996).
  • IEEE 1332–1998 Programme de fiabilité standard IEEE pour le développement et la production de systèmes et d'équipements électroniques , Institute of Electrical and Electronics Engineers (1998).
  • JPL D-5703 Reliability Analysis Handbook , National Aeronautics and Space Administration Jet Propulsion Laboratory (juillet 1990).
  • Programme de fiabilité MIL-STD-785B pour le développement et la production de systèmes et d'équipements , Département américain de la Défense (15 septembre 1980). (*Obsolète, remplacé par ANSI/GEIA-STD-0009-2008 intitulé Reliability Program Standard for Systems Design, Development, and Manufacturing , 13 novembre 2008)
  • MIL-HDBK-217F Reliability Prediction of Electronic Equipment , Département américain de la Défense (2 décembre 1991).
  • MIL-HDBK-217F (Avis 1) Reliability Prediction of Electronic Equipment , Département américain de la Défense (10 juillet 1992).
  • MIL-HDBK-217F (Avis 2) Reliability Prediction of Electronic Equipment , Département américain de la Défense (28 février 1995).
  • MIL-STD-690D Failure Rate Sampling Plans and Procedures , Département américain de la Défense (10 juin 2005).
  • MIL-HDBK-338B Electronic Reliability Design Handbook , Département américain de la Défense (1er octobre 1998).
  • MIL-HDBK-2173 Exigences de maintenance centrée sur la fiabilité (RCM) pour les aéronefs navals, les systèmes d'armes et les équipements de soutien , Département de la Défense des États-Unis (30 janvier 1998) ; (remplacé par NAVAIR 00-25-403).
  • MIL-STD-1543B Reliability Program Requirements for Space and Launch Vehicles , Département américain de la Défense (25 octobre 1988).
  • Procédures MIL-STD-1629A pour effectuer une analyse des effets et de la criticité des modes de défaillance , Département américain de la Défense (24 novembre 1980).
  • MIL-HDBK-781A Méthodes, plans et environnements de test de fiabilité pour le développement technique, la qualification et la production , Département américain de la Défense (1er avril 1996).
  • NSWC-06 (Parties A et B) Manuel des procédures de prévision de la fiabilité des équipements mécaniques , Naval Surface Warfare Center (10 janvier 2006).
  • Procédure de prévision de la fiabilité SR-332 pour les équipements électroniques , Telcordia Technologies (janvier 2011).
  • Procédure automatisée de prévision de la fiabilité FD-ARPP-01 , Telcordia Technologies (janvier 2011).
  • GR-357 Exigences génériques pour assurer la fiabilité des composants utilisés dans les équipements de télécommunications , Telcordia Technologies (mars 2001).

http://standards.sae.org/ja1000/1_199903/ Guide de mise en œuvre de la norme du programme de fiabilité SAE JA1000/1

Normes britanniques

Au Royaume-Uni, il existe des normes plus récentes maintenues sous le parrainage du UK MOD en tant que normes de défense. Les normes pertinentes comprennent :

DEF STAN 00-40 Fiabilité et maintenabilité (R&M)

  • PARTIE 1 : Question 5 : Responsabilités et exigences de la direction pour les programmes et les plans
  • PARTIE 4 : (ARMP-4) Numéro 2 : Orientations pour la rédaction des documents relatifs aux exigences OTAN en matière de R&M
  • PARTIE 6 : Problème 1 : R&M EN SERVICE
  • PARTIE 7 (ARMP-7) Numéro 1 : Terminologie OTAN R&M applicable aux ARMP

DEF STAN 00-42 GUIDES D'ASSURANCE DE FIABILITÉ ET DE MAINTENABILITÉ

  • PARTIE 1 : Numéro 1 : DISPOSITIFS/SYSTÈMES ONE-SHOT
  • PARTIE 2 : Numéro 1 : LOGICIEL
  • PARTIE 3 : Question 2 : CAS R&M
  • PARTIE 4 : Problème 1 : Testabilité
  • PARTIE 5 : Problème 1 : DÉMONSTRATIONS DE FIABILITÉ EN SERVICE

DEF STAN 00-43 ACTIVITÉ D'ASSURANCE DE FIABILITÉ ET DE MAINTENABILITÉ

  • PARTIE 2 : Numéro 1 : DÉMONSTRATIONS DE MAINTENABILITÉ EN SERVICE

DEF STAN 00-44 COLLECTE ET CLASSIFICATION DES DONNÉES DE FIABILITÉ ET DE MAINTENABILITÉ

  • PARTIE 1 : Numéro 2 : DONNÉES DE MAINTENANCE ET RAPPORTS DE DÉFAUTS DANS LA ROYAL NAVY, L'ARMÉE ET LA ROYAL AIR FORCE
  • PARTIE 2 : Question 1 : CLASSIFICATION DES DONNÉES ET SENTENCE D'INCIDENT – GÉNÉRAL
  • PARTIE 3 : Question 1 : SENTENCE POUR INCIDENT – MER
  • PARTIE 4 : Question 1 : SENTENCES POUR INCIDENTS – TERRES

DEF STAN 00-45 Issue 1 : MAINTENANCE CENTRÉE SUR LA FIABILITÉ

DEF STAN 00-49 Numéro 1 : GUIDE MOD DE FIABILITÉ ET DE MAINTENABILITÉ DES DÉFINITIONS TERMINOLOGIQUES

Ceux-ci peuvent être obtenus auprès du DSTAN. Il existe également de nombreuses normes commerciales, produites par de nombreuses organisations, notamment la SAE, le MSG, l'ARP et l'IEE.

Normes françaises

  • FIDES [1]. La méthodologie FIDES (UTE-C 80-811) est basée sur la physique des ruptures et appuyée par l'analyse des données d'essais, des retours de terrain et des modélisations existantes.
  • UTE-C 80-810 ou RDF2000 [2]. La méthodologie RDF2000 s'appuie sur l'expérience française des télécoms.

Normes internationales

  • Normes TC 56 : Fiabilité

Liens externes

  • Médias liés à l'ingénierie de la fiabilité sur Wikimedia Commons
  • Collection John P. Rankin, archives et collections spéciales de l'Université d'Alabama à Huntsville Recherches d'ingénierie de fiabilité de la NASA sur les circuits furtifs.
Récupéré de "https://en.wikipedia.org/w/index.php?title=Reliability_engineering&oldid=1214857738"