Enfoque estadístico fundamental en clasificación de patrones, la idea principal de esta teoría es estudiar probabilidades de tomar decisiones incorrectas para
cuantificar los costos y compromisos de esas decisiones y diseñar las estrategias
de menor costo.
Metodología
1. Supuestas conocidas todas las probabilidades en juego
estudiaremos como establecer las reglas de decisión.
2. Posteriormente analizaremos como proceder cuando no se
conocen las probabilidades completamente.
Ejemplo
- Clasificación de brotes y de hierbas parásitas en
cultivos, mediante la captura de imágenes multiespectrales (4 bandas), con el
objetivo de realizar una fumigación específica.
- Pre-procesamiento: discriminación suelo –vegetación Ø Problema de clasificación
de 2 clases: cada pixel de vegetación pertenece a:
w1 – brote
w2 – parásito
C= {w1, w2}
Ω Є C, V. A
- P(w1 ), P(w2 ) probabilidades a priori, pixel brote o
parásito. Reflejan conocimiento previo de cuan probable es que un pixel
corresponda a brote o parásito antes de inspeccionar imagen.
- Supondremos P(w1 )+P(w2 )=1, todo pixel detectado como
vegetación es brote o parásito.
Regla de Decisión
Supongamos que somos forzados a tomar
una decisión y que todos los costos de decisiones incorrectas son iguales.
Si la única
información a la que podemos acceder son las probabilidades a priori, la regla
de decisión razonable es:
Decido: w1 si P(w1 )> P(w2 ) , w2 en otro caso
- Si P(w1 )>> P(w2 ) al decidir w1 casi siempre
estamos en lo cierto.
- Si P(w1 ) ≈P(w2 ) nos equivocamos en promedio uno de cada
dos.
P(error) = min [P(w1 ), P(w2 )]
Densidad de
Probabilidad Condicionada a la Clase
En general
disponemos de más información para tomar decisiones.
Ejemplo: a cada pixel le asociamos un vector x=(x1 ,x2 ,x3
,x4 ) donde xi : reflectancia en la banda espectral i-ésima.
Modelo: x vector aleatorio p(x/wi ) densidad de probabilidad
)
Bayes
Supuesto
conocidas las prioris y las densidades condiciona condicionales para inferir la
naturaleza del pixel de vector características x usamos Bayes:
- P(wi /x)- posterior: probabilidad de que la clase sea wi
dado que se midió x .
- P(wi ) – prior: conocimiento previo del problema.
- p(x/ wi )-
verosimilitud : de la clase wi respecto a x, cuanto mayor más probable que la
verdadera clase sea wi .
- p(x)- evidencia: factor de escala, normaliza a 1.
Decisión de Bayes
- Si p(x/ w1 )=p(x/ w2 ) entonces el medir las
características x, no nos aporta información sobre la clase; la decisión se
basa puramente en las priors.
- Si P(w1 ) =P(w2 ) la decisión se basa en las
verosimilitudes
- La regla de decisión bayesiana combina ambos factores y
toma la decisión que minimiza la probabilidad de error.
No hay comentarios:
Publicar un comentario