20 results on '"Jiménez-Bermejo, David"'
Search Results
2. Hybrid Modeling Procedure of Li-Ion Battery Modules for Reproducing Wide Frequency Applications in Electric Systems
- Author
-
Castano-Solis, Sandra, primary, Serrano-Jiménez, Daniel, additional, Fraile-Ardanuy, Jesús, additional, Jiménez-Bermejo, David, additional, and Sanz-Feito, Javier, additional
- Published
- 2020
- Full Text
- View/download PDF
3. Using Dynamic Neural Networks for Battery State of Charge Estimation in Electric Vehicles
- Author
-
Jiménez-Bermejo, David, Fraile-Ardanuy, Jesús, Castaño-Solis, Sandra, Merino, Julia, and Álvaro-Hermana, Roberto
- Published
- 2018
- Full Text
- View/download PDF
4. Limitations and shortcomings for optimal use of local resources
- Author
-
Fraile-Ardanuy, Jesús, Conti, Giuseppe, Fernández-Muñoz, Daniel, Gutiérrez, Álvaro, Castaño, Sandra, Jiménez-Bermejo, David, Ignacio, Juan, Pérez Díaz, Corrales, María, Gago, Victor, Marialaura Di Somma, Buonanno, Amadeo, Caliano, Martina, Cigolotti, Viviana, Palladino, Valeria, Chrysanthos Charalampous, Papadimitriou, Christina, Felipe, Andrés, Cortés Borray, Santos-Mugica, Maider, García, Eduardo, Lewandowska, Hanna, Kosmela, Iwona, Richardson, Peter, Coccia, Alessio, Khavari, Ata, Morch, Andrei, Saele, Hanne, Comodi, Gabriele, Rossi, Mosè, Ferrario, Andrea Monforti, Loredo, Victoria Rebillas, Luis, José, Domínguez García, Corchero, Cristina, and Cardoso, Carlos
- Published
- 2022
- Full Text
- View/download PDF
5. Experimental Determination of the Energetic Performance of a Racing Motorcycle Battery-Pack
- Author
-
Esparza, Pablo, primary, Castano-Solis, Sandra, additional, Jiménez-Bermejo, David, additional, Fraile Ardanuy, Jesús, additional, and Merino, Manuel, additional
- Published
- 2020
- Full Text
- View/download PDF
6. Evaluating the effect of MIPM on vehicle detection performance
- Author
-
Yaghoobi Ershadi, Nastaran, primary, Menéndez, José Manuel, additional, and Jiménez Bermejo, David, additional
- Published
- 2019
- Full Text
- View/download PDF
7. Quality Probe for Testing Multimedia Content in 5G Networks
- Author
-
López Velasco, Juan Pedro, Jiménez Bermejo, David, Navarro, Carlos, Rodrigo Ferrán, Juan Antonio, Menéndez García, José Manuel, and Sánchez Almodóvar, Nuria
- Subjects
Informática ,Telecomunicaciones - Abstract
With the growth of Internet traffic and the deployment of 5G networks, the evaluation of technology for video streaming over the Internet needs to be assessed. Users demand more efficient algorithms that taking into account the state of the network assure the requirements in terms of quality and allow them to enjoy the contents, which have gradually more resolution and definition than years ago. For this purpose, it is important to create a “probe” for video quality analysis, which checks the correct video transmission through the network avoiding undesirable effects in the multimedia content. In absence of a reference to compare the video transmitted with the original video, an algorithm based on video quality metrics is able to assess the transmission and, consequently, to improve the Quality of Experience of the users, needs to be implemented. The metrics are based in the detection of freezing frames, artefacts, colour errors and packet losses through the analysis of the video sequence. 5G network architecture, based on novel virtualization architectures, such as Software-Defined Networking (SDN) and Network Function Virtualization (NFV) allows the nodes in the network to improve the distribution capabilities of the multimedia network in case of transmission errors. The algorithm of the Quality Probe is designed to assess the quality and, in case of finding a descent on it, trigger an alarm to the broadcaster. The probe has been tested with a database that considers this type of errors, with successful results.
- Published
- 2017
8. Evaluating the effect of MIPM on vehicle detection performance.
- Author
-
Yaghoobi Ershadi, Nastaran, Menéndez, José Manuel, and Jiménez Bermejo, David
- Subjects
INTELLIGENT transportation systems ,GAUSSIAN mixture models ,HOUGH transforms ,WEATHER ,CITIES & towns ,HIGH speed trains - Abstract
The introduction of new techniques to improve the robustness and accuracy of vehicle detection is always important for the intelligent transportation system as it may face different problems and challenges. Conventional image-based vehicle detection methods have presented difficulties in acquiring good images due to perspective and background noise, poor lighting and weather conditions. We propose a high-accurate, vehicle detection method by using Modified Inverse Perspective Mapping. Thus, the perspective effect is removed, and then the Hough transform was applied to extract road lines and lanes. Gaussian Mixture Model and chromaticity-based strategy were applied to segment the moving vehicles and tackle shadow effects, respectively. We evaluated the performance of the proposed method under recorded videos in Madrid and Tehran (with different weather conditions at urban and interurban areas). Results indicate that the proposed approach is feasible, and more accurate compared to others, especially when facing bad weather conditions and lighting variations in different environments. [ABSTRACT FROM AUTHOR]
- Published
- 2020
- Full Text
- View/download PDF
9. Bits de inteligencia para Android
- Author
-
Jiménez Bermejo, David, Sebastián Martín, Luis Ignacio, and Universidad de Valladolid. Escuela de Ingeniería Informática de Segovia
- Subjects
Tecnología educativa ,Informática – Aplicaciones en educación - Abstract
El trabajo es una aplicación para Android, destinada a los niños que implementa el método didáctico de los Bits de inteligencia para que los niños puedan usar la aplicación por ellos mismos, sin ayuda. Tiene una interfaz clara y amigable y un funcionamiento muy fácil, simple, visual e intuitivo para que los niños puedan usarla sin problemas. La aplicación está compuesta por una serie de categorías y subcategorías que se muestran en forma de listas y mediante l selección de ellas, se nos muestra una galería de los bits asociados. Dicha galería está formada por una imagen, un texto y un sonido por cada bit, que se cambiarán automáticamente. Existe la opción de ver las categorías, subcategorías y bits (texto y audio) en español o en inglés., Grado en Ingeniería Informática de Servicios y Aplicaciones
- Published
- 2016
10. Proposal for Characterization of 3DTV Video Sequences Describing Parallax Information
- Author
-
López Velasco, Juan Pedro, Rodrigo Ferrán, Juan Antonio, Jiménez Bermejo, David, and Menéndez García, José Manuel
- Subjects
Telecomunicaciones - Abstract
Recommendations such as P.910 suggests parameters TI (temporal information) and SI (spatial information) for characterizing video sequences for quality assessment. In this paper, we suggest two additional parameter based on disparity called SPI (spatial parallax information) and TPI (temporal parallax information) to characterize 3DTV video sequences for this purpose.
- Published
- 2015
11. Automatic 3DTV Quality Assessment Based On Depth Perception Analysis
- Author
-
Rodrigo Ferrán, Jose Antonio, López Velasco, J. P., Jiménez Bermejo, David, and Menéndez García, José Manuel
- Subjects
Telecomunicaciones ,genetic structures ,ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION ,GeneralLiterature_MISCELLANEOUS ,ComputingMethodologies_COMPUTERGRAPHICS - Abstract
Quality assessment is a key factor for stereoscopic 3D video content as some observers are affected by visual discomfort in the eye when viewing 3D video, especially when combining positive and negative parallax with fast motion. In this paper, we propose techniques to assess objective quality related to motion and depth maps, which facilitate depth perception analysis. Subjective tests were carried out in order to understand the source of the problem. Motion is an important feature affecting 3D experience but also often the cause of visual discomfort. The automatic algorithm developed tries to quantify the impact on viewer experience when common cases of discomfort occur, such as high-motion sequences, scene changes with abrupt parallax changes, or complete absence of stereoscopy, with a goal of preventing the viewer from having a bad stereoscopic experience.
- Published
- 2013
12. Impact of new technologies and social networks on a secondary education theatre project
- Author
-
López Velasco, J. P., Ballesteros Fernández, J. P., Jiménez Bermejo, David, and Menéndez García, José Manuel
- Subjects
Telecomunicaciones ,Educación ,ComputingMilieux_COMPUTERSANDEDUCATION ,Arte ,Sociología - Abstract
This paper describes the potential impact of social media and new technologies in secondary education. The case of study has been designed for the drama and theatre subject. A wide set of tools like social networks, blogs, internet, multimedia content, local press and other promotional tools are promoted to increase students’ motivation. The experiment was developed at the highschool IES Al-Satt located in Algete in the Comunidad de Madrid. The students included in the theatre group present a low academic level, 80% of them had previously repeated at least one grade, half of them come from programs for students with learning difficulties and were at risk of social exclusion. This action is supported by higher and secondary education professors and teachers who look forward to implanting networked media technologies as new tools to improve the academic results and the degree of involvement of students. The results of the experiment have been excellent, based on satisfactory opinions obtained from a survey answered by students at the end of the course, and also revealed by the analytics taken from different social networks. This project is a pioneer in the introduction and usage of new technologies in secondary high-schools in Spain.
- Published
- 2013
13. Fast algorithm for H.264/AVC intra prediction based on discrete wavelet transform
- Author
-
Menéndez García, José Manuel, Jiménez Bermejo, David, Patiño Gonzalez, Oscar, and Ruiz, Damian
- Subjects
Telecomunicaciones ,ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION - Abstract
H.264 or MPEG-4 AVC (Advanced Video Coding) is the new world-wide accepted international Standard for video coding, approved by ITU-T and ISO. New Tools have been added to improve the coding efficiency allowing a save up above of 50%, when is compared with previous standards (H.263, MPEG-2 y MPEG-4). From April 2007 there is a new set of profiles known as “all-Intra”. They were born as a sub-set from the “High” profile and have reached a high impact within broadcast industry where the highest quality video formats are demanded. The high efficiency of “all-Intra” mode in H.264 is due to Rate Distortion Optimization (RDO) technique. RDO chooses for each macroblock (MB) the best partition mode and directional prediction. However, the computational burden becomes extremely high due to huge number of prediction-prediction modes that should be evaluated. This article shows a new algorithm for fast partition mode algorithm based on Discrete Wavelet Transform (DWT). It allows reducing the number of candidate modes to those which are strictly defined for each partition. By using the local 2D-DWT over each MB, information of the homogeneity is obtained. It is got from multiresolution analysis of the transformed coefficients in each sub-band. This way it is easier to classify quickly the optimum partition mode avoiding the exhaustive seek made by RDO.
- Published
- 2010
14. Architectures for Future Media Internet
- Author
-
Alduan Mellado, Maria, Alvarez Garcia, Federico, Zahariadis, Theodore, Nikolakis, N., Chatzipapadopoulos, F., Jiménez Bermejo, David, and Menendez Garcia, Jose Manuel
- Subjects
Telecomunicaciones - Abstract
Among the major reasons for the success of the Internet have been the simple networking architecture and the IP interoperation layer. However, the traffic model has recently changed. More and more applications (e.g. peerto-peer, content delivery networks) target on the content that they deliver rather than on the addresses of the servers who (originally) published/hosted that content. This trend has motivated a number of content-oriented networking studies. In this paper we summarize some the most important approaches
- Published
- 2010
15. Televisión 3D: Aspectos básicos y tendencias
- Author
-
Menéndez García, José Manuel, López, Juan Pedro, Cerezo, Ana, and Jiménez Bermejo, David
- Subjects
Telecomunicaciones - Abstract
¿Qué ¿Qué es TV es TV-3D? 3D? • Es una una ilusión óptica, que añade información de añade información de profundidad a la imagen convencional de TV • Los sistemas actuales son sólo un subconjunto de los procesos llevados a cabo en la Visión Natural • Puede ser muy efectivo, pero hay limitaciones y se puede producir cansancio en la vista • Necesitará una producción específica de contenidos • Puede ser ( puede ser (¡o no!)) compatible con los sistemas de TV los sistemas de TV monoscópicos
- Published
- 2010
16. High definition video quality assessment metric built upon full reference ratios
- Author
-
Jiménez Bermejo, David, primary
- Full Text
- View/download PDF
17. High definition video quality assessment metric built upon full reference ratios
- Author
-
Jiménez Bermejo, David and Menéndez García, José Manuel
- Subjects
Telecomunicaciones - Abstract
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
18. Robust vehicle detection under different weather conditions
- Author
-
Yaghoobi Ershadi, Nastaran and Jiménez Bermejo, David
- Subjects
Telecomunicaciones - Abstract
The introduction of new techniques for improving the robustness and accuracy of vehicle detection is always important for the Intelligent Transportation System (ITS) as they may face different problems and challenges. Variability of driving environments such as urban and interurban areas, different weather conditions, and illumination variations will affect the vehicle detection performance and later processes. This thesis proposes a number of improved methods with a high accuracy which can successfully cope with the existing challenges. In order to provide reliable results and to ensure fast and robust processing, the performance of the proposed methods have been evaluated taking advantage of an own constructed database built with videos recorded in Spain and Iran under different weather, illumination, and environmental conditions; therefore, a complete validation has been carried out. According to an exhaustive review presented in this thesis, conventional image-based vehicle detection methods have difficulties in acquiring good images due to the perspective effect and background noise. Thus, a high-accurate vehicle detection scheme by using a modified version of inverse perspective mapping (MIPM) is proposed in the first method. A cooperative framework is adapted based on two complementary analyses. The spectral features which follow a spatial feature are integrated for the pixel-level analysis. Subsequently, the regional-level analysis takes place to extract the geometric features of vehicles and reducing the false-positive rate. The later analysis is performed at the original image based on a discrete differentiation operator in order to get accurate information of vehicles. Thereupon, rule-based strategies are proposed to reduced the false-negative rate and provide the final detection results. As experimental results indicated, higher accuracy is achieved by means of MIPM transformed image leading to increase vehicle detection performance under all weather conditions. Experimentally, we verified that small qualitative differences of transformation methods can manifest themselves crucially important in traffic monitoring systems. Comparing with previously published methods it demonstrates that MIPM, was not only simple and straightforward, but it was also more accurate in front of others. On the other hand, the proposed method opens the door to extract and collect real traffic information. In order to deal with a camera vibration due to the wind or bridge movements, adverse weather conditions, and achieve an accurate vehicle detection system, the second method is proposed. This has been developed through three main units which are tightly integrated. Particularly, the motion-based unit demonstrates the existence of vehicles by means of spectral and temporal features based on statistical characteristics of image pixels and a combination of several extra processing. Moreover, the accuracy of the system will be increased by the effective incorporation of the acquired data at the different parts of the proposed method. Regarding the knowledge-based unit, an adaptive particle filter framework with multiple measurements and a realistic noise model was developed which requires the information from the prior unit at the different stages. As a consequence, the second unit is beneficial as it allows refining the coarse results obtained by the former which happened due to the unfavorable conditions. Finally, the decision-making unit increased the accuracy of inter-frame correspondence by considering the various situations from two different points of view. The evaluation is divided into two extensive parts to prove the higher performance of the proposed method in front of others. Different from previous literature, the proposed method achieved a more accurate result under bad weather conditions by the effective integration of diverse information. In summary, experimental results show that the proposed methods offer great improvements in terms of accuracy, robustness, and stability in traffic surveillance. ----------RESUMEN---------- La introducción de nuevas técnicas para mejorar la solidez y la precisión de la detección de vehículos es de evidente importancia para los Sistemas Inteligentes de Transporte (conocidos como ITS por sus siglas en inglés), ya que les permite afrontar diferentes problemas y desafíos. La variabilidad de entornos de conducción como urbanos y áreas interurbanas, las diferentes y cambiantes condiciones climáticas y de iluminación tienen una alta incidencia en el rendimiento de la detección del vehículo y procesos posteriores. Esta tesis propone una serie de métodos mejorados respecto al estado del arte que ofrecen una alta precisión que permita hacer frente con éxito a los desafíos existentes. Con el fin de ofrecer resultados fiables y validar el procesamiento rápido y robusto de la solución, el rendimiento de los métodos propuestos se ha evaluado a partir de una base de datos propia construida con vídeos grabados en España e Irán bajo diferentes condiciones climáticas, de iluminación y contextuales; a partir de los cuales se ha llevado a cabo una validación completa. Del estudio del estado del arte presentado en la tesis se concluye que los métodos basados en imágenes para la detección de vehículos tienen dificultades para la adquisición de imágenes buenas debido al efecto de perspectiva y el ruido de fondo. Por lo tanto, se propone un esquema de detección de vehículos de alta precisión mediante el uso de una versión modificada del mapeo de perspectiva inversa (MIPM) dentro de un primer método, que integra un marco cooperativo que se adapta sobre la base de dos análisis complementarios. Las características espectrales asociadas a una característica espacial están integradas en el análisis a nivel de píxel. Posteriormente, en el análisis a nivel de región se extraen las características geométricas de los vehículos con el objetivo de reducir la tasa de falsos positivos. El análisis posterior se realiza en la imagen original basada en un operador de diferencias discreto que obtiene información precisa de los vehículos. A continuación, se proponen estrategias basadas en reglas para reducir la tasa de falsos negativos y proporcionar los resultados finales de detección. Como se muestra en los resultados experimentales, se logra una mayor precisión mediante la imagen transformada del MIPM, lo que lleva a un incremento en el rendimiento de detección del vehículo en todas las condiciones climáticas. Experimentalmente, se ha verificado que las pequeñas diferencias cualitativas que proporcionan los métodos de transformación se manifiestan de importancia crucial en el resultado final de los sistemas de supervisión del tráfico. En comparación con los métodos publicados con anterioridad se demuestra que integrando MIPM, no sólo es más simple y directo, sino también que es más preciso. De esta forma, se puede concluir que el método propuesto es válido para extraer y recoger información de tráfico real. La tesis propone un segundo método con el fin de hacer frente a una vibración de la cámara debido al viento o de la infraestructura en condiciones climáticas adversas y permitir un sistema de detección de vehículos preciso. Este se ha desarrollado a través de tres unidades principales que están estrechamente integradas. En particular, la unidad basada en movimiento es capaz de detectar vehículos mediante características espectrales y temporales basadas en las características estadísticas de los píxeles de la imagen y una combinación de varios procesamientos adicionales. Además, la precisión del sistema se incrementa mediante la incorporación efectiva de los datos adquiridos en las diferentes partes del método propuesto. En cuanto a la unidad basada en el conocimiento, se ha desarrollado un marco de trabajo con un filtro de partículas adaptable alimentado con múltiples mediciones y un modelo de ruido realista que requiere la información de la unidad anterior en las diferentes etapas. Sobre esa base, se puede que justificar que la segunda unidad es beneficiosa ya que permite refinar los resultados gruesos obtenidos por el primer método debidos a las condiciones desfavorables. Por último, la unidad de toma de decisiones aumenta la precisión de la estimación al considerar las diversas situaciones desde dos puntos de vista diferentes. La evaluación de este segundo método se divide en dos partes, con el fin de probar el mayor rendimiento del método propuesto frente a otros. A diferencia de la literatura anterior, el método propuesto logró un resultado más preciso en condiciones climáticas adversas mediante la integración efectiva de los diversos datos de las unidades propuestas. En resumen, los resultados experimentales muestran que los métodos propuestos ofrecen grandes mejoras en términos de precisión, robustez y estabilidad en la vigilancia del tráfico.
- Published
- 2020
19. FPGA-based acceleration of tracking algorithm to improve Parkinson's patients quality of life
- Author
-
Giuseppe Conti and Jiménez Bermejo, David
- Subjects
Telecomunicaciones ,Medicina - Abstract
The use of electronic devices in biomedical and medical applications is increasing, with the intention of giving doctors and healthcare personnel new tools to monitor and checkup on their patients. All the professional communities involved, have a common purpose: to improve the quality of people’s lives. This thesis presents a study on the optimization of the tracking system designed for patients with Parkinson’s disease, tested at a day hospital center. The work performed significantly improves the efficiency of the computer vision based system in terms of energy consumption and hardware requirements. This study analyzes the tracking algorithm in its whole implementation, and it optimizes the performances of the background subtraction by segmenting every frame previously characterized by a Gaussian mixture model (GMM). This module has been determined to be the most demanding part in terms of computational resources, and therefore, this thesis proposes a method for its implementation by means of a low-cost development board based on Zynq XC7Z020 SoC (system on chip). The platform used is the ZedBoard, which combines an ARM Processor unit and an FPGA. Module optimisation is necessary to achieve performance, consumption and cost requirements. This research has optimised the embedded system, making use of a reconfigurable hardware solution, to implement the GMM module which is the most demanding. For this purpose, a hybrid software/hardware design has been chosen, to deal with the requirements imposed by the architecture that introduces a data type variation over the original software model implementation, without losing flexibility for future adaptations or modifications. Furthermore, the difficulties in integration with the rest of the complete system modules has been resolved, performing the functional tests (real or simulation) necessary for its verification. This thesis proposes a working methodology using tools that facilitate HW/SW co-design, achieving an implementation that covers the research needs without the drawbacks of a dedicated hardware design. The knowledge required and acquired to perform this work includes expertise from many other fields of study. In fact, the plethora of ingredients needed from other fields must include: research and biomedical skills to be able to understand the problem and find a solution, electrical and electronic expertise to design the architecture, hardware verification techniques to perform the validation of the design, Operating system and Linux expertise to build a system tailored to the board and the project resources, advanced programming skills to create and modify all the code necessary for the algorithmic part, driver development to perform the communication between the CPU and the FPGA, multi-threading and all types of software optimization to allow the performance improvements to take advantage of the FPGA. In the chapters of this thesis, all construction stages are detailed, starting from the research phase down to specific technical steps. To summarize: the algorithm is modified to allow its synthesis on the FPGA. In the following stage it has been implemented on the FGPA and connected to the CPU using the proper interfaces. A driver is developed to connect the algorithm running on the CPU with the part accelerated on the FPGA. All the systems are tested and checked up to find the right setup. A further optimization strategy is applied to the system improving the RAM usage and the multi-threading architecture of the CPU. The system achieves real-time performance and lowpower consumption while accurately performing the target tracking. Finally, the results and findings of this study, validated in real medical settings, are discussed and analyzed within. ----------RESUMEN---------- El uso de dispositivos electrónicos para aplicaciones biomédicas y médicas está aumentando, con la intención de dar a los médicos y al personal sanitario, nuevas herramientas para controlar y revisar a sus pacientes. Todas las comunidades profesionales involucradas tienen un propósito común: mejorar la calidad de vida de las personas. Esta tesis presenta un estudio sobre la optimización de un sistema de seguimiento de personas, diseñado para los pacientes que han desarrollado la enfermedad de Parkinson, probado en un centro de día de la comunidad de Madrid. El trabajo realizado mejora significativamente la eficiencia del sistema de visión artificial, en términos de consumo de energía y necesidad de recursos hardware. Este estudio analiza el algoritmo de seguimiento en toda su implementación y, optimiza las prestaciones de la sustracción de fondo segmentando cada cuadro previamente caracterizado por un Gaussian mixture model (GMM). Este módulo ha sido identificado como la parte más exigente en términos de recursos de computación, y por lo tanto, esta tesis propone un método más eficiente para su implementación mediante una placa de desarrollo de bajo costo basada en Zynq XC7Z020 SoC (System on Chip). La plataforma utilizada es la ZedBoard, que combina un procesador ARM y una FPGA. La optimización del módulo es necesaria para cubrir los requisitos de prestaciones, consumo y coste. En esta investigación se va a optimizar el sistema embebido, haciendo uso de hardware reconfigurable para el módulo GMM que es el más demandante. Para ello, se ha realizado un diseño híbrido software/hardware, solventando los requisitos impuestos por la arquitectura de trabajo que obliga a variar los tipos de datos que integraba el modelo software original en su implementación, pero añadiendo flexibilidad para adaptaciones o modificaciones futuras. Y solucionando las dificultades en la integración con el resto de módulos del sistema completo, y las pruebas funcionales (reales o con simulación) necesarias para su verificación. En esta tesis se plantea una metodología de trabajo utilizando herramientas que faciliten el co-diseño HW/SW, obteniendo una implementación que cubra las necesidades sin las penalizaciones de un diseño dedicado. El conocimiento requerido y adquirido para realizar este trabajo incluye más áreas de interés. De hecho, todos los elementos necesarios incluyen: investigación y experiencia en el área biomédica para poder entender el problema y encontrar una solución, conocimientos avanzados de electrónica para diseñar la arquitectura, técnicas de verificación de hardware para realizar la validación del diseño, experiencia en sistemas operativos, especialmente en Linux, para diseñar un sistema adaptado a la placa y a los recursos del proyecto, habilidades avanzadas de programación para crear y modificar todo el código necesario para la parte algorítmica, desarrollo de controladores para realizar la comunicación entre la CPU y la FPGA, conocimiento de procesamiento multi-hilo y todo tipo de optimización de software para permitir la mejora del rendimiento aprovechando la FPGA. En los capítulos de esta tesis se detallan todas las etapas para realizarla, desde la fase de investigación hasta todas las etapas técnicas. A continuación se presenta un breve resumen de todo el proceso. El algoritmo se modifica para permitir su síntesis en la FPGA. En la siguiente etapa se ha implementado el algoritmo sobre de la FGPA y se ha realizado la comunicación con la CPU utilizando las interfaces adecuadas. Se ha desarrollado un controlador para conectar el algoritmo que corre en la CPU con la parte acelerada en la FPGA. Todos los sistemas se comprueban para encontrar la configuración correcta. Una estrategia de optimización adicional se aplica al sistema mejorando el uso de la RAM y la arquitectura multi-hilo de la CPU. El sistema logra un rendimiento en tiempo real y un bajo consumo de energía mientras realiza el seguimiento de personas con precisión. Finalmente, los resultados y los logros de este estudio, validados en entornos médicos reales y en publicaciones, son presentados y analizados en la última parte de este trabajo.
- Published
- 2020
20. Implementación de un modelo de detección y seguimiento de jugadores de waterpolo para el análisis de modelos de juego
- Author
-
Alvarez-Cedrón García-Zarandieta, Rocío and Jiménez Bermejo, David
- Subjects
Telecomunicaciones - Abstract
El proyecto consiste en el desarrollo de un algoritmo para la detección y seguimiento de jugadores de waterpolo con el propósito de crear una herramienta para el análisis de los modelos de juego de este deporte, a partir de imágenes de una cámara 360º. El estudio recoge una comparativa de distintos algoritmos de detección de objetos que utilizan técnicas de Deep Learning que han sido aplicadas al ámbito del deporte acuático, en el que el cuerpo humano se encuentra parcialmente ocluido. Se han implementado redes neuronales convolucionales conocidas como YOLOv3 y Faster R-CNN que permiten obtener el Bounding Box de las personas detectadas. Además, para obtener unos mejores resultados, se re-entrenan las redes con el fin de ajustar los resultados de manera más fiable al problema de detección de personas en el agua. En cuanto a los datos empleados para la implementación y entrenamiento del algoritmo se ha creado y anotado un Dataset completo de creación propia. Este Dataset cuenta con vídeos de los entrenamientos del Club Deportivo Natación Boadilla en los que se realizan distintos modelos de juego para evaluar si el algoritmo diseñado es capaz de representar correctamente los distintos movimientos efectuados. El Dataset ha sido grabado con una cámara 360º por lo que se ha realizado un procesado previo de la imagen para eliminar las distorsiones que se generan al representar las imágenes en 2D. El seguimiento de los jugadores se implementa gracias a algoritmos de Visión Artificial para realizar un seguimiento simultáneo de múltiples objetos. Los algoritmos utilizados son el Kernel Correlation Filter (KCF) y el Correlation Filter with Channel and Spatial Reliability (CSRT) que, a partir del análisis de la imagen, predicen la ubicación del Bounding Box en la próxima imagen, proporcionando una estimación incluso cuando el algoritmo de detección no es capaz de volver a detectar a una persona siendo ya seguida. Para mejorar el seguimiento de cada jugador se utilizan técnicas de re-identificación ayudando al algoritmo a tomar una decisión final. Finalmente se implementan diferentes visualizaciones mediante mapas de calor para representar el movimiento de los jugadores detectados y así poder analizar las jugadas durante un partido.
- Published
- 2020
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.