sábado, 3 de diciembre de 2016

Teoría de Decisión Bayesiana

     Enfoque estadístico fundamental en clasificación de patrones, la idea principal de esta teoría es estudiar probabilidades de tomar decisiones incorrectas para cuantificar los costos y compromisos de esas decisiones y diseñar las estrategias de menor costo.
Metodología

1. Supuestas conocidas todas las probabilidades en juego estudiaremos como establecer las reglas de decisión.
2. Posteriormente analizaremos como proceder cuando no se conocen las probabilidades completamente.

Ejemplo

- Clasificación de brotes y de hierbas parásitas en cultivos, mediante la captura de imágenes multiespectrales (4 bandas), con el objetivo de realizar una fumigación específica.
- Pre-procesamiento: discriminación suelo –vegetación Ø Problema de clasificación de 2 clases: cada pixel de vegetación pertenece a:

w1 – brote
w2 – parásito
C= {w1, w2}
Ω Є C, V. A

- P(w1 ), P(w2 ) probabilidades a priori, pixel brote o parásito. Reflejan conocimiento previo de cuan probable es que un pixel corresponda a brote o parásito antes de inspeccionar imagen.
- Supondremos P(w1 )+P(w2 )=1, todo pixel detectado como vegetación es brote o parásito.

Regla de Decisión

     Supongamos que somos forzados a tomar una decisión y que todos los costos de decisiones incorrectas son iguales.
     Si la única información a la que podemos acceder son las probabilidades a priori, la regla de decisión razonable es:

Decido: w1 si P(w1 )> P(w2 ) , w2 en otro caso
- Si P(w1 )>> P(w2 ) al decidir w1 casi siempre estamos en lo cierto.
- Si P(w1 ) ≈P(w2 ) nos equivocamos en promedio uno de cada dos.
P(error) = min [P(w1 ), P(w2 )]

Densidad de Probabilidad Condicionada a la Clase

     En general disponemos de más información para tomar decisiones.
Ejemplo: a cada pixel le asociamos un vector x=(x1 ,x2 ,x3 ,x4 ) donde xi : reflectancia en la banda espectral i-ésima.
Modelo: x vector aleatorio p(x/wi ) densidad de probabilidad )


Bayes

     Supuesto conocidas las prioris y las densidades condiciona condicionales para inferir la naturaleza del pixel de vector características x usamos Bayes:





- P(wi /x)- posterior: probabilidad de que la clase sea wi dado que se midió x .
- P(wi ) – prior: conocimiento previo del problema.
-  p(x/ wi )- verosimilitud : de la clase wi respecto a x, cuanto mayor más probable que la verdadera clase sea wi .
- p(x)- evidencia: factor de escala, normaliza a 1.


Decisión de Bayes


- Si p(x/ w1 )=p(x/ w2 ) entonces el medir las características x, no nos aporta información sobre la clase; la decisión se basa puramente en las priors.
- Si P(w1 ) =P(w2 ) la decisión se basa en las verosimilitudes
- La regla de decisión bayesiana combina ambos factores y toma la decisión que minimiza la probabilidad de error.



No hay comentarios:

Publicar un comentario