La reconnaissance de formes

Un article de Wikipédia, l'encyclopédie libre
Aller à la navigation Aller à la recherche

La reconnaissance de formes est la reconnaissance automatisée de formes et de régularités dans les données . Il a des applications dans l' analyse de données statistiques , le traitement du signal , l' analyse d' images , la recherche d' informations , la bioinformatique , la compression de données , l' infographie et l' apprentissage automatique . La reconnaissance de formes trouve ses origines dans les statistiques et l'ingénierie ; certaines approches modernes de la reconnaissance de formes incluent l'utilisation de l'apprentissage automatique , en raison de la disponibilité accrue des mégadonnées et d'une nouvelle abondance de puissance de traitement. Cependant, ces activités peuvent être considérées comme les deux facettes d'un même domaine d'application et, ensemble, elles ont connu un développement substantiel au cours des dernières décennies. Une définition moderne de la reconnaissance de formes est :

Le domaine de la reconnaissance de formes s'intéresse à la découverte automatique de régularités dans les données grâce à l'utilisation d'algorithmes informatiques et à l'utilisation de ces régularités pour prendre des mesures telles que la classification des données en différentes catégories. [1]

Les systèmes de reconnaissance de formes sont dans de nombreux cas entraînés à partir de données "d'apprentissage" étiquetées, mais lorsqu'aucune donnée étiquetée n'est disponible, d'autres algorithmes peuvent être utilisés pour découvrir des modèles auparavant inconnus. Le KDD et l'exploration de données se concentrent davantage sur les méthodes non supervisées et sur une connexion plus forte à l'utilisation commerciale. La reconnaissance des formes se concentre davantage sur le signal et prend également en considération l' acquisition et le traitement du signal . Il trouve son origine dans l' ingénierie , et le terme est populaire dans le contexte de la vision par ordinateur : une conférence de premier plan sur la vision par ordinateur s'appelle Conférence sur la vision par ordinateur et la reconnaissance de formes .

En apprentissage automatique , la reconnaissance de formes est l'attribution d'une étiquette à une valeur d'entrée donnée. Dans les statistiques, l'analyse discriminante a été introduite dans le même but en 1936. Un exemple de reconnaissance de formes est la classification , qui tente d'attribuer chaque valeur d'entrée à l'une d'un ensemble donné de classes (par exemple, déterminer si un e-mail donné est un « spam » ou « non-spam »). Cependant, la reconnaissance des formes est un problème plus général qui englobe également d'autres types de sortie. D'autres exemples sont la régression , qui attribue une sortie à valeur réelle à chaque entrée ; [2] étiquetage de séquence , qui attribue une classe à chaque membre d'une séquence de valeurs[3] (par exemple, part of speech tagging , qui attribue une partie du discours à chaque mot d'une phrase d'entrée) ; et l' analyse , qui attribue un arbre d'analyse à une phrase d'entrée, décrivant la structure syntaxique de la phrase. [4]

Les algorithmes de reconnaissance de formes visent généralement à fournir une réponse raisonnable pour toutes les entrées possibles et à effectuer une correspondance "la plus probable" des entrées, en tenant compte de leur variation statistique. Ceci est opposé aux algorithmes de correspondance de modèles , qui recherchent des correspondances exactes dans l'entrée avec des modèles préexistants. Un exemple courant d'algorithme de correspondance de modèles est la correspondance d' expressions régulières , qui recherche des modèles d'un type donné dans des données textuelles et est incluse dans les capacités de recherche de nombreux éditeurs de texte et traitements de texte .

Aperçu

La reconnaissance de formes est généralement classée selon le type de procédure d'apprentissage utilisée pour générer la valeur de sortie. L'apprentissage supervisé suppose qu'un ensemble de données d'apprentissage (l' ensemble d'apprentissage ) a été fourni, composé d'un ensemble d'instances qui ont été correctement étiquetées à la main avec la sortie correcte. Une procédure d'apprentissage génère alors un modèle qui tente de répondre à deux objectifs parfois contradictoires : performer au mieux sur les données d'apprentissage, et généraliser au mieux à de nouvelles données (généralement, cela signifie être le plus simple possible, pour certaines définitions techniques de "simple", conformément au rasoir d' Occam , discuté ci-dessous). Apprentissage non supervisé, d'autre part, suppose des données d'apprentissage qui n'ont pas été étiquetées manuellement et tente de trouver des modèles inhérents dans les données qui peuvent ensuite être utilisés pour déterminer la valeur de sortie correcte pour les nouvelles instances de données. [5] Une combinaison des deux qui a été récemment explorée est l' apprentissage semi-supervisé , qui utilise une combinaison de données étiquetées et non étiquetées (généralement un petit ensemble de données étiquetées combinées à une grande quantité de données non étiquetées). Notez que dans les cas d'apprentissage non supervisé, il peut n'y avoir aucune donnée d'apprentissage à proprement parler ; en d'autres termes, les données à étiqueter sont les données d'apprentissage.

Notez que parfois des termes différents sont utilisés pour décrire les procédures d'apprentissage supervisées et non supervisées correspondantes pour le même type de sortie. Par exemple, l'équivalent non supervisé de la classification est normalement connu sous le nom de clustering , basé sur la perception commune de la tâche comme n'impliquant aucune donnée d'apprentissage à proprement parler, et de regrouper les données d'entrée en clusters sur la base d'une mesure de similarité inhérente (par exemple la distance entre instances, considérées comme des vecteurs dans un espace vectoriel multidimensionnel ), plutôt que d'affecter chaque instance d'entrée à l'une d'un ensemble de classes prédéfinies. Dans certains domaines, la terminologie est différente : Par exemple, en écologie communautaire, le terme « classification » est utilisé pour désigner ce qui est communément appelé « regroupement ».

La donnée d'entrée pour laquelle une valeur de sortie est générée est formellement appelée instance . L'instance est formellement décrite par un vecteur de caractéristiques , qui constituent ensemble une description de toutes les caractéristiques connues de l'instance. (Ces vecteurs de caractéristiques peuvent être considérés comme définissant des points dans un espace multidimensionnel approprié , et des méthodes de manipulation de vecteurs dans des espaces vectoriels peuvent leur être appliquées en conséquence, telles que le calcul du produit scalaire ou de l'angle entre deux vecteurs.) En règle générale, les caractéristiques sont soit catégorique (également appelé nominal, c'est-à-dire consistant en l'un d'un ensemble d'éléments non ordonnés, tels qu'un sexe "masculin" ou "féminin", ou un groupe sanguin "A", "B", "AB" ou "O"), ordinal ( consistant en l'un d'un ensemble d'éléments ordonnés, par exemple, "grand", "moyen" ou "petit"), à valeur entière (par exemple, le nombre d'occurrences d'un mot particulier dans un e-mail) ou à valeur réelle (par exemple, une mesure de la pression artérielle). Souvent, les données catégorielles et ordinales sont regroupées ; de même pour les données à valeur entière et à valeur réelle. De plus, de nombreux algorithmes ne fonctionnent qu'en termes de données catégorielles et nécessitent que les données à valeur réelle ou à valeur entière soient discrétisées en groupes (par exemple, moins de 5, entre 5 et 10, ou supérieur à 10).

Classificateurs probabilistes

De nombreux algorithmes de reconnaissance de formes courants sont de nature probabiliste , en ce sens qu'ils utilisent l'inférence statistique pour trouver la meilleure étiquette pour une instance donnée. Contrairement à d'autres algorithmes, qui génèrent simplement une "meilleure" étiquette, les algorithmes souvent probabilistes génèrent également une probabilité que l'instance soit décrite par l'étiquette donnée. De plus, de nombreux algorithmes probabilistes génèrent une liste des N -meilleures étiquettes avec les probabilités associées, pour une valeur de N , au lieu d'une simple meilleure étiquette. Lorsque le nombre d'étiquettes possibles est assez faible (par exemple, dans le cas d'une classification ), Npeut être défini de sorte que la probabilité de toutes les étiquettes possibles soit sortie. Les algorithmes probabilistes présentent de nombreux avantages par rapport aux algorithmes non probabilistes :

  • Ils produisent une valeur de confiance associée à leur choix. (Notez que certains autres algorithmes peuvent également générer des valeurs de confiance, mais en général, ce n'est que pour les algorithmes probabilistes que cette valeur est mathématiquement fondée sur la théorie des probabilités . d'autres valeurs de confiance produites par le même algorithme.)
  • En conséquence, ils peuvent s'abstenir lorsque la confiance de choisir une sortie particulière est trop faible.
  • En raison de la sortie des probabilités, les algorithmes probabilistes de reconnaissance de modèles peuvent être intégrés plus efficacement dans des tâches d'apprentissage automatique plus importantes, d'une manière qui évite partiellement ou complètement le problème de propagation d'erreurs .

Nombre de variables de caractéristiques importantes

Les algorithmes de sélection de fonctionnalités tentent d'éliminer directement les fonctionnalités redondantes ou non pertinentes. Une introduction générale à la sélection de fonctionnalités qui résume les approches et les défis a été donnée. [6] La complexité de la sélection de caractéristiques est, en raison de son caractère non monotone, un problème d'optimisation où étant donné un total dedispose de l'ensemble de puissance composé de tousdes sous-ensembles de caractéristiques doivent être explorés. L' algorithme Branch-and-Bound [7] réduit cette complexité mais est insoluble pour les valeurs moyennes à grandes du nombre de fonctionnalités disponibles. Pour une comparaison à grande échelle des algorithmes de sélection de caractéristiques, voir . [8]

Des techniques pour transformer les vecteurs de caractéristiques bruts ( extraction de caractéristiques ) sont parfois utilisées avant l'application de l'algorithme de correspondance de motifs. Par exemple, les algorithmes d' extraction de caractéristiques tentent de réduire un vecteur de caractéristiques de grande dimension en un vecteur de plus petite dimension avec lequel il est plus facile de travailler et qui code moins de redondance, en utilisant des techniques mathématiques telles que l' analyse en composantes principales (ACP). La distinction entre la sélection de caractéristiques et l' extraction de caractéristiques est que les caractéristiques résultantes après l'extraction des caractéristiques sont d'un type différent des caractéristiques d'origine et peuvent ne pas être facilement interprétables, tandis que les caractéristiques laissées après la sélection des caractéristiques sont simplement un sous-ensemble des caractéristiques d'origine.

Énoncé du problème

Formellement, le problème de la reconnaissance de formes peut être énoncé comme suit : Étant donné une fonction inconnue (la vérité terrain ) qui mappe les instances d'entrée pour sortir des étiquettes , ainsi que les données d'entraînement supposé représenter des exemples précis du mappage, produire une fonction qui se rapproche le plus possible du mappage correct . (Par exemple, si le problème est de filtrer le spam, alors est une représentation d'un e-mail et est soit « spam » ou « non-spam »). Pour qu'il s'agisse d'un problème bien défini, il faut définir rigoureusement « les approximations aussi proches que possible ». Dans la théorie de la décision , cela est défini en spécifiant une fonction de perte ou une fonction de coût qui attribue une valeur spécifique à la "perte" résultant de la production d'une étiquette incorrecte. L'objectif est alors de minimiser la perte attendue , avec l'espérance prise sur la distribution de probabilité de. En pratique, ni la répartition des ni la fonction de vérité terrain sont connus exactement, mais ne peuvent être calculés qu'empiriquement en collectant un grand nombre d'échantillons de et les étiqueter à la main en utilisant la valeur correcte de (un processus qui prend du temps, qui est généralement le facteur limitant de la quantité de données de ce type pouvant être collectées). La fonction de perte particulière dépend du type d'étiquette prédit. Par exemple, dans le cas de la classification , la simple fonction de perte zéro-un est souvent suffisante. Cela correspond simplement à attribuer une perte de 1 à tout étiquetage incorrect et implique que le classificateur optimal minimise le taux d'erreur sur les données de test indépendantes (c'est-à-dire en comptant la fraction d'instances que la fonction appriseétiquettes à tort, ce qui équivaut à maximiser le nombre d'instances correctement classées). Le but de la procédure d'apprentissage est alors de minimiser le taux d'erreur (maximiser la correction ) sur un ensemble de test "typique".

Pour un dispositif de reconnaissance de forme probabiliste, le problème est plutôt d'estimer la probabilité de chaque étiquette de sortie possible étant donné une instance d'entrée particulière, c'est-à-dire d'estimer une fonction de la forme

où l' entrée du vecteur de caractéristiques est, et la fonction f est généralement paramétrée par certains paramètres. [9] Dans une approche discriminante du problème, f est estimée directement. Dans une approche générative , cependant, la probabilité inverseest plutôt estimée et combinée avec la probabilité a priori en utilisant la règle de Bayes , comme suit :

Lorsque les étiquettes sont distribuées en continu (par exemple, dans l'analyse de régression ), le dénominateur implique une intégration plutôt qu'une sommation :

La valeur de est généralement appris en utilisant une estimation maximale a posteriori (MAP). Celui-ci trouve la meilleure valeur qui rencontre simultanément deux objets conflictuels : performer au mieux sur les données d'apprentissage (le plus petit taux d'erreur ) et trouver le modèle le plus simple possible. Essentiellement, cela combine l' estimation du maximum de vraisemblance avec une procédure de régularisation qui favorise les modèles plus simples par rapport aux modèles plus complexes. Dans un contexte bayésien , la procédure de régularisation peut être considérée comme plaçant une probabilité a priori sur différentes valeurs de . Mathématiquement:

est la valeur utilisée pour dans la procédure d'évaluation ultérieure, et , la probabilité postérieure de, est donné par

Dans l' approche bayésienne de ce problème, au lieu de choisir un seul vecteur de paramètre, la probabilité d'une étiquette donnée pour une nouvelle instance est calculé en intégrant sur toutes les valeurs possibles de , pondérée selon la probabilité a posteriori :

Approche fréquentiste ou bayésienne de la reconnaissance de formes

Le premier classificateur de motifs – le discriminant linéaire présenté par Fisher – a été développé dans la tradition fréquentiste . L'approche fréquentiste implique que les paramètres du modèle sont considérés comme inconnus, mais objectifs. Les paramètres sont ensuite calculés (estimés) à partir des données collectées. Pour le discriminant linéaire, ces paramètres sont précisément les vecteurs moyens et la matrice de covariance . Aussi la probabilité de chaque classeest estimée à partir de l'ensemble de données collectées. Notez que l'utilisation de la « règle de Bayes » dans un classificateur de modèle ne rend pas l'approche de classification bayésienne.

La statistique bayésienne trouve son origine dans la philosophie grecque où l'on distinguait déjà le savoir « a priori » et le savoir « a posteriori ». Plus tard, Kant a défini sa distinction entre ce qui est connu a priori – avant l'observation – et la connaissance empirique acquise à partir des observations. Dans un classifieur de modèle bayésien, les probabilités de classepeuvent être choisis par l'utilisateur, qui sont alors a priori. De plus, l'expérience quantifiée en tant que valeurs de paramètres a priori peut être pondérée avec des observations empiriques - en utilisant par exemple les distributions bêta ( priorité conjuguée ) et de Dirichlet . L'approche bayésienne facilite un mélange homogène entre les connaissances d'experts sous la forme de probabilités subjectives et les observations objectives.

Les classificateurs de motifs probabilistes peuvent être utilisés selon une approche fréquentiste ou bayésienne.

Utilise

Au sein de la science médicale, la reconnaissance des formes est la base des systèmes de diagnostic assisté par ordinateur (CAO). CAD décrit une procédure qui prend en charge les interprétations et les conclusions du médecin. D'autres applications typiques des techniques de reconnaissance de formes sont la reconnaissance automatique de la parole , l' identification du locuteur , la classification du texte en plusieurs catégories (par exemple, les messages électroniques spam/non-spam), la reconnaissance automatique de l'écriture manuscrite sur les enveloppes postales, la reconnaissance automatique des images de visages humains, ou l'extraction d'images d'écriture à partir de formulaires médicaux. [10] [11] Les deux derniers exemples forment l' analyse d'images sous-thèmede reconnaissance de formes qui traite des images numériques en entrée des systèmes de reconnaissance de formes. [12] [13]

La reconnaissance optique de caractères est un exemple classique d'application d'un classificateur de motifs, voir OCR-example . La méthode de signature de son nom a été capturée avec un stylet et une superposition à partir de 1990. [ citation nécessaire ] Les traits, la vitesse, le minimum relatif, le maximum relatif, l'accélération et la pression sont utilisés pour identifier et confirmer de manière unique l'identité. Les banques se sont d'abord vu proposer cette technologie, mais se sont contentées de collecter auprès de la FDIC pour toute fraude bancaire et ne voulaient pas gêner les clients. [ citation nécessaire ]

La reconnaissance de formes a de nombreuses applications dans le monde réel dans le traitement d'images, voici quelques exemples :

En psychologie, la reconnaissance des formes (donner un sens et identifier des objets) est étroitement liée à la perception, ce qui explique comment les intrants sensoriels que les humains reçoivent sont rendus significatifs. La reconnaissance de formes peut être envisagée de deux manières différentes : la première étant la correspondance de modèle et la seconde étant la détection de caractéristiques. Un modèle est un modèle utilisé pour produire des éléments de mêmes proportions. L'hypothèse de correspondance avec les modèles suggère que les stimuli entrants sont comparés aux modèles dans la mémoire à long terme. S'il y a correspondance, le stimulus est identifié. Les modèles de détection de caractéristiques, tels que le système Pandemonium pour la classification des lettres (Selfridge, 1959), suggèrent que les stimuli sont décomposés en leurs composants pour l'identification. Par exemple, un E majuscule a trois lignes horizontales et une ligne verticale.[23]

Algorithmes

Les algorithmes de reconnaissance de formes dépendent du type de sortie d'étiquette, du fait que l'apprentissage est supervisé ou non supervisé et que l'algorithme est de nature statistique ou non statistique. Les algorithmes statistiques peuvent en outre être classés comme génératifs ou discriminants .

Méthodes de classification (méthodes prédisant les étiquettes catégorielles )

Paramétrique : [24]

Non paramétrique : [25]

Méthodes de clustering (méthodes de classification et de prédiction d' étiquettes catégorielles )

Algorithmes d' apprentissage d'ensemble ( méta-algorithmes supervisés pour combiner plusieurs algorithmes d'apprentissage)

Méthodes générales pour prédire des (ensembles d') étiquettes arbitrairement structurées

Algorithmes d' apprentissage de sous-espace multilinéaire (prédiction d'étiquettes de données multidimensionnelles à l'aide de représentations tensorielles )

Non supervisé :

Méthodes d' étiquetage de séquences à valeur réelle (prédisant des séquences d' étiquettes à valeur réelle )

Méthodes de régression (prédisant les étiquettes à valeur réelle )

Méthodes d' étiquetage de séquences (prédisant des séquences d' étiquettes catégorielles )

Voir aussi

Références

Cet article est basé sur du matériel extrait du Dictionnaire gratuit en ligne de l'informatique avant le 1er novembre 2008 et incorporé sous les termes de "relicensing" de la GFDL , version 1.3 ou ultérieure.

  1. ^ Évêque, Christopher M. (2006). Reconnaissance de modèles et apprentissage automatique . Springer.
  2. ^ Howard, WR (2007-02-20). « Reconnaissance de modèles et apprentissage automatique ». Kybernètes . 36 (2) : 275. doi : 10.1108/03684920710743466 . ISSN 0368-492X . 
  3. ^ "Étiquetage de séquence" (PDF) . utah.edu . Archivé (PDF) de l'original le 06-11-2018 . Récupéré le 06-11-2018 .
  4. ^ Ian., Chiswell (2007). Logique mathématique, p. 34 . Presses de l'Université d'Oxford. ISBN 9780199215621. OCLC  799802313 .
  5. ^ Carvalko, JR, Preston K. (1972). "Sur la détermination des transformations de marquage de Golay simples optimales pour le traitement d'images binaires". Transactions IEEE sur les ordinateurs . 21 (12) : 1430-1433. doi : 10.1109/TC.1972.223519 . S2CID 21050445 . CS1 maint: multiple names: authors list (link).
  6. ^ Isabelle Guyon Clopinet, André Elisseeff (2003). Une introduction à la sélection de variables et de fonctionnalités . Le Journal de la recherche sur l'apprentissage automatique, Vol. 3, 1157-1182. Lien archivé le 04/03/2016 à la Wayback Machine
  7. ^ Iman Foroutan; Jack Sklansky (1987). "Sélection de fonctionnalité pour la classification automatique des données non gaussiennes". Transactions IEEE sur les systèmes, l'homme et la cybernétique . 17 (2) : 187-198. doi : 10.1109/TSMC.1987.4309029 . S2CID 9871395 .  .
  8. ^ Mineichi Kudo; Jack Sklansky (2000). « Comparaison des algorithmes qui sélectionnent des caractéristiques pour les classificateurs de motifs ». Reconnaissance de motifs . 33 (1) : 25-41. CiteSeerX 10.1.1.55.1718 . doi : 10.1016/S0031-3203(99)00041-2 .  .
  9. ^ Pour l'analyse discriminante linéaire, le vecteur de paramètre se compose des deux vecteurs moyens et et la matrice de covariance commune .
  10. ^ Milewski, Robert; Govindaraju, Venu (31 mars 2008). "Binarisation et nettoyage de textes manuscrits à partir d'images de formulaires médicaux en copie carbone" . Reconnaissance de motifs . 41 (4) : 1308-1315. doi : 10.1016/j.patcog.2007.08.018 . Archivé de l'original le 10 septembre 2020 . Consulté le 26 octobre 2011 .
  11. ^ Sarangi, Susanta; Sahidullah, Md; Saha, Goutam (septembre 2020). « Optimisation de la banque de filtres basée sur les données pour la vérification automatique des locuteurs ». Traitement numérique du signal . 104 : 102795. arXiv : 2007.10729 . doi : 10.1016/j.dsp.2020.102795 . S2CID 220665533 . 
  12. ^ Richard O. Duda , Peter E. Hart , David G. Stork (2001). Classification des modèles (2e éd.). Wiley, New York. ISBN 978-0-471-05669-0. Archivé de l'original le 2020-08-19 . Récupéré le 2019-11-26 .CS1 maint: multiple names: authors list (link)
  13. ^ R. Brunelli, Techniques de correspondance de modèles dans la vision par ordinateur : théorie et pratique , Wiley, ISBN 978-0-470-51706-2 , 2009 
  14. ^ LE TUTORIEL DE RECONNAISSANCE AUTOMATIQUE DE LA PLAQUE D'IMMATRICULATION Archivé 2006-08-20 à la Wayback Machine http://anpr-tutorial.com/ Archivé 2006-08-20 à la Wayback Machine
  15. ^ Réseaux de neurones pour la reconnaissance des visages Archivé le 04/03/2016 au Wayback Machine Companion au chapitre 4 du manuel Machine Learning.
  16. ^ Poddar, Arnab; Sahidullah, Md; Saha, Goutam (mars 2018). « Vérification du locuteur avec des énoncés courts : un examen des défis, des tendances et des opportunités » . IET Biométrie . 7 (2) : 91-101. doi : 10.1049/iet-bmt.2017.0065 . Archivé de l'original le 2019-09-03 . Récupéré le 2019-08-27 .
  17. ^ PAPNET pour le dépistage cervical Archivé 2012-07-08 à archive.today
  18. ^ "Développement d'une stratégie de contrôle de véhicule autonome à l'aide d'une seule caméra et de réseaux de neurones profonds (document technique 2018-01-0035) - SAE Mobilus" . saemobilus.sae.org . Archivé de l'original le 2019-09-06 . Récupéré le 2019-09-06 .
  19. ^ Gerdes, J. Christian; Kegelman, John C.; Kapania, Nitin R.; Brown, Matthieu ; Spielberg, Nathan A. (2019-03-27). « Modèles de véhicules à réseau de neurones pour une conduite automatisée haute performance » . Robotique scientifique . 4 (28) : eaaw1975. doi : 10.1126/scirobotics.aaw1975 . ISSN 2470-9476 . PMID 33137751 . S2CID 89616974 .   
  20. ^ Pickering, Chris (2017-08-15). « Comment l'IA ouvre la voie à des voitures entièrement autonomes » . L'Ingénieur . Archivé de l'original le 2019-09-06 . Récupéré le 2019-09-06 .
  21. ^ Ray, Baishakhi; Jana, Suman ; Pei, Kexin ; Tian, ​​Yuchi (2017-08-28). "DeepTest: Test automatisé de voitures autonomes pilotées par un réseau de neurones profonds". arXiv : 1708.08559 . Bibcode : 2017arXiv170808559T . Cite journal requires |journal= (help)
  22. ^ Sinha, PK; Hadjiiski, LM ; Mutib, K. (1993-04-01). « Réseaux de neurones dans le contrôle des véhicules autonomes ». Volumes des actes de l'IFAC . 1er atelier international de l'IFAC sur les véhicules autonomes intelligents, Hampshire, Royaume-Uni, 18-21 avril. 26 (1) : 335-340. doi : 10.1016/S1474-6670 (17) 49322-0 . ISSN 1474-6670 . 
  23. ^ "Révision d'attention de psychologie de niveau A - Reconnaissance de modèle | S-cool, le site Web de révision" . S-cool.co.uk. Archivé de l'original le 2013-06-22 . Récupéré le 2012-09-17 .
  24. ^ En supposant que la forme distributionnelle connue des distributions de caractéristiques par classe, telle que laforme gaussienne .
  25. ^ Aucune hypothèse de distribution concernant la forme des distributions de caractéristiques par classe.

Lectures complémentaires

Liens externes