Imagenes de probabilidad
Contenidos
Imágenes libres de probabilidad
Ha solicitado una traducción automática de un contenido seleccionado de nuestras bases de datos. Esta funcionalidad se proporciona únicamente para su comodidad y no pretende en ningún caso sustituir a la traducción humana. Ni SPIE ni los propietarios y editores del contenido hacen, y renuncian explícitamente, a cualquier representación o garantía expresa o implícita de cualquier tipo, incluyendo, sin limitación, representaciones y garantías en cuanto a la funcionalidad de la función de traducción o la exactitud o integridad de las traducciones.
Cada métrica de imagen representa diferentes características de las imágenes. Por ejemplo, las métricas de similitud, como la métrica del índice de similitud estructural (SSIM) o el coeficiente de correlación de Pearson (PCC), utilizan la correlación entre dos imágenes para calcular la similitud entre ellas; las métricas de error, como el error absoluto medio (MAE) o el error cuadrático medio (RMSE), calculan el error por píxel entre ellas según diferentes normas. Como cada una de ellas destaca aspectos diferentes, la elección de la métrica para una aplicación puede depender de las características de las imágenes. En este trabajo, mostraremos algunas reconstrucciones tomográficas de objetos binarios de capas densas, y como los objetos son binarios, proponemos la Probabilidad de Error (PE) como métrica de imagen para la evaluación de las reconstrucciones en contraste con otras métricas que no están limitadas al rango de valores. La PE es equivalente a la Tasa de Error de Bits (BER) en las comunicaciones digitales, ya que ambas señales de interés son binarias, y nos interesa una desviación a nivel de bits de las reconstrucciones de sus correspondientes imágenes reales.
Álgebra de imágenes
Estoy tratando de construir una distribución que pueda predecir un conjunto específico de imágenes. Pero primero, necesito una línea de base – así que, decidí modelar una distribución normal en las imágenes y ver el promedio de Log PDF de cada imagen con respecto a esa distribución normal.
La forma en que he tratado de lograr esto hasta ahora es tomar el píxel promedio, utilizarlo como mi media, y tomar la desviación estándar de los píxeles de esa media y utilizarla como mi desviación estándar. Eso me da una distribución normal, pero no me permite calcular la probabilidad de toda la imagen, sólo de cada píxel individual. ¿Puedo tomar el producto de la distribución normal de cada píxel para obtener la probabilidad de toda la imagen? Eso me parece correcto, pero no conozco la estadística lo suficientemente bien como para confiar en mí mismo.
Pero aún más fundamental, ¿es ésta la mejor manera de modelar una distribución normal “de base” en estas imágenes? ¿Debería utilizar alguna otra distribución, posiblemente una distribución multinomial? Se agradece cualquier ayuda.
Ver más
Hola a todos He estado luchando con una pregunta sobre las probabilidades. Tengo una formación en física, así que pensé que era capaz de manejarla pero después de algunos días pensando me doy por vencido. El tema es el siguiente:
Quiero clasificar un gran grupo de directorios (miles). Cada uno de ellos contiene cientos de imágenes. Las imágenes pueden ser por ejemplo: gatos, perros, pájaros, coches, etc. Algunos directorios pueden contener mayoritariamente imágenes de un tipo, otros una mezcla de ellos.
Tengo un algoritmo que toma una imagen e imprime las probabilidades de que esta imagen pertenezca a un conjunto de imágenes preentrenado (Random Forest). Por ejemplo, 0,8 * gato, 0,1 * perro, 0,1 * pájaro, 0,0 * otros… Como no puedo entrenar todas las imágenes posibles de los directorios, también tengo un tipo de imágenes “otras” (clase “0”).
Para una muestra de directorios, con un 100% de imágenes clasificadas, podría experimentar con el valor de n imágenes, que le da un resultado suficientemente preciso para la predicción de directorios. También podría muestrear aleatoriamente estos directorios para entender mejor la distribución de las imágenes, lo que también podría darle una indicación de qué tamaño debe tener n.
Probabilidad ppt
Este trabajo presenta un método variacional de conjuntos de niveles para la segmentación simultánea y la estimación del campo de sesgo de imágenes médicas con inhomogeneidad de intensidad. En nuestro modelo, las estadísticas de las intensidades de la imagen pertenecientes a cada tejido diferente en las regiones locales se caracterizan por distribuciones gaussianas con diferentes medias y varianzas. De acuerdo con la probabilidad máxima a posteriori (MAP) y la regla de Bayes, primero derivamos una función objetivo local para las intensidades de la imagen en una vecindad alrededor de cada píxel. A continuación, esta función objetivo local se integra con respecto al centro de la vecindad en todo el dominio de la imagen para obtener un criterio global. En el marco de los conjuntos de niveles, este criterio global define una energía en términos de las funciones de los conjuntos de niveles que representan una partición del dominio de la imagen y un campo de sesgo que da cuenta de la falta de homogeneidad de la intensidad de la imagen. Por lo tanto, la segmentación de la imagen y la estimación del campo de sesgo se consiguen simultáneamente a través de un proceso de evolución del conjunto de niveles. Los resultados experimentales con imágenes sintéticas y reales demuestran las buenas prestaciones de nuestro método.