Objetivos

La vigilancia visual avanzada implica no sólo el análisis de una secuencia de imágenes, sino también su interpretación, detectando la presencia de determinados sucesos o acciones previamente definidos [Fuentes y Velastin, 2004]. De ahí que la interpretación del significado de los cambios en el movimiento de objetos a partir de secuencias de imágenes sea, de hecho, un tópico central de investigación en visión artificial y robótica. La meta de estos sistemas de vigilancia visual semiautomática es (1) monitorizar de forma plurisensorial y activa la escena de interés, (2) identificar situaciones de prealarma en las relaciones espacio-temporales entre distintos objetos de interés en una secuencia de imágenes, (3) diagnosticar, a través del razonamiento basado en casos, comparando la situación detectada con los patrones almacenados, (4) generar las acciones pertinentes, en colaboración con los agentes humanos, ante situaciones de alerta, (5) crear una base incremental de conocimientos en la tarea de vigilancia y seguridad de escenarios concretos y (6) incluir el aprendizaje supervisado y no supervisado en cada una de estas tareas. La propuesta de este proyecto se basa en el uso combinado de la vigilancia electrónica con la humana en tareas de seguridad encuadrada en la denominada vigilancia visual avanzada utilizando sistemas multiagente inteligentes con interfaces aumentadas para conseguir una interacción más eficaz entre el operador humano y el resto del sistema.
La experiencia previa más directa del equipo de investigación solicitante es su participación en el proyecto coordinado en curso AVISA (TIN2004-07661), cuyo trabajo nos lleva a proponer este nuevo proyecto, en el que pretendemos aplicar lo aprendido en el proyecto en curso sobre las dificultades encontradas en el salto semántico desde un lenguaje de descripción de imágenes hasta la semántica de su interpretación en tareas de vigilancia. Adicionalmente, pretendemos introducir innovaciones en: (a) la generación de un lenguaje de descripción de escenas suficientemente rico entre el nivel de procesado de la imagen y el de comprensión de la misma, (b) el desarrollo de sensores genéricos (visuales y no visuales) que integran los datos físicos con el conocimiento de entorno y tarea, (c) la ayuda a la toma de decisiones (interacción hombre-máquina) mediante técnicas de realidad aumentada, y (d) la creación de una herramienta de generación de entornos de vigilancia multisensoriales modelados como sistemas multiagente.