94 results on '"Díaz Honrubia, Antonio Jesús"'
Search Results
2. PALADIN: A process-based constraint language for data validation
- Author
-
Diaz-Honrubia, Antonio Jesus, Rohde, Philipp D., Niazmand, Emetis, Menasalvas, Ernestina, and Vidal, Maria-Esther
- Published
- 2024
- Full Text
- View/download PDF
3. A Trusted Platform Module-based, Pre-emptive and Dynamic Asset Discovery Tool
- Author
-
Diaz-Honrubia, Antonio Jesus, Blázquez Herranz, Alberto, Prieto Santamaría, Lucía, Menasalvas Ruiz, Ernestina, Rodríguez-González, Alejandro, Gonzalez-Granadillo, Gustavo, Diaz, Rodrigo, Panaousis, Emmanouil, and Xenakis, Christos
- Published
- 2022
- Full Text
- View/download PDF
4. A bacteraemia risk prediction model: development and validation in an emergency medicine population
- Author
-
Julián-Jiménez, Agustín, González del Castillo, Juan, García-Lamberechts, Eric Jorge, Huarte Sanz, Itziar, Navarro Bustos, Carmen, Rubio Díaz, Rafael, Guardiola Tey, Josep María, Llopis-Roca, Ferrán, Piñera Salmerón, Pascual, de Martín-Ortiz de Zarate, Mikel, Álvarez-Manzanares, Jesús, Gamazo-Del Rio, Julio Javier, Álvarez Alonso, Marta, Mora Ordoñez, Begoña, Álvarez López, Oscar, Ortega Romero, María del Mar, Sousa Reviriego, María del Mar, Perales Pardo, Ramón, Villena García del Real, Henrique, Marchena González, María José, Ferreras Amez, José María, González Martínez, Félix, Martín-Sánchez, Francisco Javier, Beneyto Martín, Pedro, Candel González, Francisco Javier, and Díaz-Honrubia, Antonio Jesús
- Published
- 2022
- Full Text
- View/download PDF
5. Aplicación para la gestión de repuestos de grupos electrógenos
- Author
-
Díaz Honrubia, Antonio Jesús, Hernández Cubillo, Rubén, Díaz Honrubia, Antonio Jesús, and Hernández Cubillo, Rubén
- Abstract
Hoy en día, los altos directivos de las empresas priorizan la continuidad operativa y la prevención de interrupciones en cualquier circunstancia. Es por esta razón que optan por implementar diversos métodos de suministro de energía en sus instalaciones, como la energía fotovoltaica, SAIS, UPS y, específicamente en el caso de este proyecto, los grupos electrógenos. Los grupos electrógenos, también conocidos como electro-generadores, se asemejan a los automóviles en su capacidad para transformar la energía mecánica en energía eléctrica. Estos dispositivos constan de un motor que realiza una combustión interna (ya sea con diésel, gasolina o gas), generando un movimiento rotativo en el cigüeñal. Este movimiento rotativo del cigüeñal, a su vez, impulsa un alternador que convierte la energía mecánica en energía eléctrica, suministrando así electricidad a la instalación correspondiente. ¿Pero se instalan y simplemente se olvidan hasta que se produce un corte de luz en la instalación? La respuesta es claramente negativa. Los fabricantes especifican en sus manuales que cada equipo requiere un mantenimiento periódico para asegurar su buen estado de funcionamiento. Desafortunadamente, no existe una aplicación o plataforma web que, a partir de datos proporcionados sobre el equipo o motor, ofrezca los resultados necesarios para el mantenimiento. En consecuencia, se debe realizar una primera visita al grupo electrógeno y luego regresar en una segunda ocasión para llevar a cabo el mantenimiento. Aquí es donde entra en juego el propósito de este proyecto. Este proyecto se dedica a realizar un análisis exhaustivo de las fichas técnicas, extrayendo la información necesaria y almacenándola posteriormente en una base de datos. De esta manera, cuando un cliente solicite un presupuesto o mantenimiento para la revisión de su grupo electrógeno, podemos ofrecerle, a partir del modelo que nos proporcione, una lista precisa de los repuestos necesarios. Esto no solo permite que el cliente ahor
- Published
- 2024
6. Desarrollo de un sistema de clasificación documental mediante OCR y aprendizaje profundo
- Author
-
Díaz Honrubia, Antonio Jesús, García Rodríguez, Daniel, Díaz Honrubia, Antonio Jesús, and García Rodríguez, Daniel
- Abstract
En el contexto actual de creciente volumen de información, la necesidad de clasificar documentos de manera eficiente y precisa se ha vuelto imperativa. Este Trabajo de Fin de Grado presenta un enfoque innovador basado en inteligencia artificial para abordar esta problemática, utilizando Python como lenguaje de desarrollo clave en este sector. La elección de Python no solo responde a su popularidad y versatilidad, sino también a su papel fundamental en la implementación de soluciones de inteligencia artificial. El desarrollo del clasificador de documentos se ha llevado a cabo utilizando tecnologías avanzadas, destacando TensorFlow como la biblioteca principal para la construcción y entrenamiento del modelo de clasificación. La robustez y eficacia de TensorFlow proporcionan una base sólida para la creación de un sistema capaz de aprender y adaptarse a patrones complejos en los documentos. Además, para la extracción de información crucial de los documentos, se ha integrado Optical Character Recognition (OCR). Esta tecnología ha demostrado ser una herramienta esencial para la digitalización de documentos, permitiendo la conversión de datos impresos en información digital accesible y procesable. La combinación de TensorFlow para la clasificación y OCR para la extracción de datos amplía significativamente la capacidad del sistema, ofreciendo una solución integral para la gestión eficiente de documentos en entornos diversos. Los resultados obtenidos de este clasificador de documentos son prometedores, no precisamente por su precisión y eficiencia, sino principalmente por la escalabilidad del software para mejoras futuras. La capacidad del modelo para adaptarse y aprender de conjuntos de datos variados sugiere un potencial significativo para futuras versiones. ABSTRACT In the current context of increasing information volume, the need to classify documents efficiently and accurately has become imperative. This Bachelor's Thesis presents an innovative approach based on artifi
- Published
- 2024
7. A fast temporal and hybrid SHVC encoder
- Author
-
Diaz-Honrubia, Antonio Jesus, Martinez, Jose Luis, and Cuenca, Pedro
- Published
- 2019
- Full Text
- View/download PDF
8. Adaptive Quadtree Splitting Parallelization (AQSP) algorithm for the VVC standard
- Author
-
González-Ruiz, Alberto, primary, Díaz-Honrubia, Antonio Jesús, additional, Tapia-Fernández, Santiago, additional, García-Lucas, David, additional, Cebrián-Márquez, Gabriel, additional, and Mengual-Galán, Luis, additional
- Published
- 2023
- Full Text
- View/download PDF
9. Acceleration of the integer motion estimation in JEM through pre-analysis techniques
- Author
-
García-Lucas, David, Cebrián-Márquez, Gabriel, Díaz-Honrubia, Antonio Jesús, and Cuenca, Pedro
- Published
- 2019
- Full Text
- View/download PDF
10. A fast full partitioning algorithm for HEVC-to-VVC video transcoding using Bayesian classifiers
- Author
-
García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, Mallikarachchi, Thanuja, Cuenca, Pedro, García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, Mallikarachchi, Thanuja, and Cuenca, Pedro
- Abstract
The Versatile Video Coding (VVC) standard was released in 2020 to replace the High Efficiency Video Coding (HEVC) standard, making it necessary to convert HEVC encoded content to VCC to exploit its compression performance, which was achieved by using a larger block size of 128 × 128 pixels, among other new coding tools. However, 80.93 of the encoding time is spent on finding a suitable block partitioning. To reduce this time, this proposal presents an HEVC-to-VVC transcoding algorithm focused on accelerating the CTU partitioning decisions. The transcoder takes different information from the input bitstream of HEVC, and feeds it to two Bayes-based models. Experimental results show a time saving in the transcoding process of 45.40, compared with the traditional cascade transcoder. This time gain has been obtained on average for all test sequences in the Random Access scenario, at the expense of only 1.50 BD-rate.
- Published
- 2023
11. Anthropic Action on Historical Shoreline Changes and Future Estimates Using GIS: Guadarmar Del Segura (Spain)
- Author
-
Fernández Herández, Marta, Calvo, Almudena, Iglesias Martínez, Luis, Castedo Ruiz, Ricardo, Ortega Parreño, José Joaquin, Díaz Honrubia, Antonio Jesús, Mora Peris, Pedro, Costamagna, Elisa, Fernández Herández, Marta, Calvo, Almudena, Iglesias Martínez, Luis, Castedo Ruiz, Ricardo, Ortega Parreño, José Joaquin, Díaz Honrubia, Antonio Jesús, Mora Peris, Pedro, and Costamagna, Elisa
- Abstract
A good understanding of historical change rates is a key requirement for effective coastal zone management and reliable predictions of shoreline evolution. Historical shoreline erosion for the coast of Guardamar del Segura (Alicante, Spain) is analyzed based on aerial photographs dating from 1930 to 2022 using the Digital Shoreline Analysis System (DSAS). This area is of special interest because the construction of a breakwater in the 1990s, which channels the mouth of the Segura River, has caused a change in coastal behavior. The prediction of future shorelines is conducted up to the year 2040 using two models based on data analysis techniques: the extrapolation of historical data (including the uncertainty of the historical measurements) and the Bruun-type model (considering the effect of sea level rises). The extrapolation of the natural erosion of the area up to 1989 is also compared with the reality, already affected by anthropic actions, in the years 2005 and 2022. The construction of the breakwater has accelerated the erosion along the coast downstream of this infrastructure by about 260%, endangering several houses that are located on the beach itself. The estimation models predict transects with erosions ranging from centimeters ( 70 cm) to tens of meters ( 30 m). However, both models are often overlapping, which gives a band where the shoreline may be thought to be in the future. The extrapolation of erosion up to 1989, and its subsequent comparison, shows that in most of the study areas, anthropic actions have increased erosion, reaching values of more than 35 m of shoreline loss. The effect of anthropic actions on the coast is also analyzed on the housing on the beach of Babilonia, which has lost around 17% of its built-up area in 40 years. This work demonstrates the importance of historical analysis and predictions before making any significant changes in coastal areas to develop sustainable plans for coastal area management.
- Published
- 2023
12. Aplicación para la gestión unificada de pacientes
- Author
-
Díaz Honrubia, Antonio Jesús, Torrelles Rodriguez, Diego Rafael, Díaz Honrubia, Antonio Jesús, and Torrelles Rodriguez, Diego Rafael
- Abstract
El trabajo consiste en el diseño y desarrollo de una aplicación para la gestión unificada de pacientes de un sistema de salud. Este sistema beneficiará a todos los trabajadores de los diferentes organismos del sistema nacional de salud, debido a que desde ella se podría acceder de manera unificada a todos los datos de los pacientes, personal sanitario y centros de salud de diferentes comunidades autónomas españolas. Para ello se realizará el diseño una base de datos unificada mediante un modelo Entidad-Relación y, en base a ello se desplegará la misma haciendo uso de un gestor relacional. La aplicación se conectará a esta base de datos para realizar las gestiones pertinentes mediante acceso programático. Se evaluarán diferentes casos de uso para asegurar que cumple con todas las especificaciones necesarias, Posteriormente se realizara una interfaz gráfica para que la aplicación pueda ser utilizada en los centros sanitarios. La realización de este trabajo de fin intenta motivar a los encargados de los sistemas informáticos del sistema sanitario a mejorar la infraestructura actual para ofrecer un mejor servicio a todos los ciudadanos que residen en España, ya que con este planteamiento de como guardar la información de los pacientes del sistema sanitario estos serían capaces de acudir a cualquier centro de salud, teniendo los trabajadores de los centros sanitarios la capacidad de obtener información relevante para atender al paciente de la mejor manera posible. Para el desarrollo de la aplicación se barajaron diferentes opciones de tecnologías para la realización de la aplicación, dentro de estas tecnologías podemos encontrar Draw.io como software para realizar el diagrama E-R de la base de datos, MySQL WorkBench como gestor de bases de datos en donde se almacenará la información con la que se van a manipular los datos, Java como lenguaje para realizar el acceso programático al gestor de bases de datos. El proceso para obtener una aplicación completamente funcional ha
- Published
- 2023
13. Desarrollo de aplicación para la gestión de datos académicos de alumnos
- Author
-
Díaz Honrubia, Antonio Jesús, Martín González, Jaime, Díaz Honrubia, Antonio Jesús, and Martín González, Jaime
- Abstract
Este proyecto recoge el trabajo de investigación y desarrollo que hay detrás de una aplicación web enfocada a los centros escolares, sobre todo los de educación primaria y secundaria. Esta aplicación ofrece a sus usuarios la posibilidad de consultar su asistencia y tareas y exámenes que están tanto programados a hacer en un futuro, como ya hechos y evaluados. A su vez también permite mandar y evaluar dichos exámenes y tareas, así como registrar la asistencia a las distintas asignaturas de los alumnos. A diferencia de otras aplicaciones que podemos encontrar en el mercado, se podrá acceder a este programa desde un navegador web, facilitando así el acceso a los distintos usuarios de la aplicación, que no necesitarán descargar ningún archivo en su ordenador o teléfono y se podrá acceder sin importar el sistema operativo del sistema. El desarrollo de la aplicación web se ha hecho usando Python como lenguaje del lado del servidor, haciendo usa del framework web Django, y para la parte del cliente se ha usado HTML5, Bootstrap 5 y CSS. Se ha necesitado crear una base de datos para la que se ha usado SQLite3. La aplicación de registro de asistencia tiene numerosas funcionalidades a parte de las ya mencionadas anteriormente: tiene la capacidad de gestionar los distintos usuarios, esto se traduce a que se pueden crear y borrar. Esto lo lleva a cabo el usuario administrador en una página especial para ese tipo de usuario. La página web, en general, y todas las funcionalidades han sido comprobadas mediante la realización de una serie de pruebas que se adjuntan en el documento, para asegurar que el funcionamiento es el establecido en los requisitos. ABSTRACT This project gathers the research and development work behind a web application focused on schools, especially those of primary and secondary education. This application offers its users the possibility to check their attendance, homework and exams that are scheduled to be done in the future, as well as those that have alrea
- Published
- 2023
14. Validación de datos clínicos de pacientes con cáncer de mama
- Author
-
Díaz Honrubia, Antonio Jesús, San Cristóbal Acera, Nerea, Díaz Honrubia, Antonio Jesús, and San Cristóbal Acera, Nerea
- Abstract
El cáncer de mama es la proliferación descontrolada y anormal de las células en el tejido mamario. La incidencia de esta enfermedad en España ha aumentado y supone el 28,9% del total de cánceres en las mujeres según la Red Española de Registros de Cáncer (REDECAN) y la Sociedad Española de Oncología Médica (SEOM) [1]. Normalmente, los datos sobre el cáncer se pueden percibir en los informes e historiales clínicos. El cáncer es una enfermedad compleja que requiere la comprensión de muchas variables que lo afectan, sin embargo, no se dispone de un sistema que pueda agrupar toda esta información y poder visualizarla de forma gráfica. Este Trabajo de Fin de Grado trata de cubrir esa necesidad proporcionando un sistema que permita hacer gráficas de cada una de las variables, tanto cuantitativas como cualitativas, que puedan afectar a la enfermedad mediante un estudio de cohortes. El sistema es provisto de un conjunto de datos extraídos de las historias clínicas mediante técnicas de Procesamiento del Lenguaje Natural y validación de los mismos, asegurando su completitud y veracidad. Este sistema, ha sido implementado como una plataforma web interactiva, que permite al usuario realizar unas determinadas cohortes y después realizar distintas gráficas sobre ellos. En resumen, este Trabajo de Fin de Grado presenta el desarrollo de un sistema innovador tras un proceso de validación de datos para mostrarlos de forma gráfica, teniendo el potencial de proporcionar información valiosa a los investigadores y profesionales de la salud desde una perspectiva visual. ABSTRACT Breast cancer is the uncontrolled and abnormal proliferation of cells in breast tissue. The incidence of this disease in Spain has increased and represents 28.9% of total cancers in women according to the Spanish Network of Cancer Registries (REDECAN) and the Spanish Society of Medical Oncology (SEOM) [1]. Normally, data on cancer can be found in reports and medical records. Cancer is a complex disease that requir
- Published
- 2023
15. Despliegue de infraestructura cloud para perfiles no técnicos
- Author
-
Díaz Honrubia, Antonio Jesús, Blanco López, Paula, Díaz Honrubia, Antonio Jesús, and Blanco López, Paula
- Abstract
Este Trabajo de Fin de Grado detalla la información sobre una aplicación para perfiles no técnicos. Para el desarrollo de dicha aplicación se han utilizado los lenguajes web PHP, HTML y CSS. Además, se ha empleado el lenguaje de programación Terraform, una herramienta de configuración de software empleada para infraestructura como código. Se han utilizados técnicas de investigación y aprendizaje para poder recopilar la información y los conocimientos necesarios para la implementación del código. El objetivo principal es crear una aplicación completa y funcional en la que un usuario sin conocimientos previos sobre computación en la nube sea capaz de desplegar una máquina virtual en Microsoft Azure en cuestión de minutos. Para lograr el objetivo del proyecto, lo primero fue el despliegue del entorno necesario para alojar las máquinas. Para ello, empleando Terraform y los flujos de trabajo de GitHub Actions se han desplegado una serie de recursos tales como una red, subredes, un bastión y un grupo de reglas de seguridad (NSG). Como resultado, el cliente puede introducir en la aplicación unos datos concretos de la máquina que desea desplegar, y pasados unos minutos tendrá una máquina funcional. El proceso de despliegue de una máquina virtual se lleva a cabo mediante el envío a GitHub de las características seleccionadas por el usuario en la aplicación web. Para ello, se activa un workflow automatizado, que se activa cuando el usuario solicita el despliegue. En cuanto a la estructura del proyecto, se ha distribuido en carpetas para facilitar la organización del trabajo. Los archivos de Terraform se han dividido entre las carpetas "network" y "virtual_machines", teniendo en cuenta si son parte del entorno de red o para las máquinas virtuales. Por otro lado, se encuentran los archivos PHP en la carpeta "webapp" que conforman la estructura y funcionamiento de la aplicación. Además, existen carpetas adicionales como "css" para los estilos de la aplicación e "imagenes" para l
- Published
- 2023
16. Desarrollo de una plataforma web de análisis de datos de World Padel Tour obtenidos utilizando tecnologías de web scraping
- Author
-
Díaz Honrubia, Antonio Jesús, Panes Sánchez, Álvaro, Díaz Honrubia, Antonio Jesús, and Panes Sánchez, Álvaro
- Abstract
Durante esta memoria, se va a explicar todo el proceso realizado en el desarrollo de una plataforma web de análisis de datos del campeonato profesional de pádel World Padel Tour implementando una arquitectura de 3 capas. La memoria empieza hablando de la motivación a la hora de realizar el proyecto, sus objetivos planteados al comienzo del proyecto y el plan de trabajo que se ha llevado a cabo. Antes de empezar con el desarrollo del proyecto, en el siguiente capitulo se explican el conjunto de tecnologías que se han utilizado en el desarrollo. Durante la explicación del desarrollo de la plataforma, se va a hablar de las tres diferentes partes del proyecto. Primero de la obtención de datos de utilizando tecnologías Web Scraping y su posterior almacenamiento en una base de datos relacional. Siguiendo con el desarrollo de una API en Spring Boot con una arquitectura basada en microservicios que gestione la base de datos y los analice y finalmente, la creación de la plataforma web en Angular que muestra la información las estadísticas de los jugadores de la manera más visual posible. Finalmente, los dos últimos capítulos de esta memoria, se va a realizar un análisis de impactos que puede tener este proyecto en la sociedad y un capítulo de conclusiones del proyecto, que analiza el resultado final, en relación con los objetivos propuestos al comienzo y una conclusión personal. ABSTRACT During this dissertation, the entire process carried out in the development of a web platform for data analysis of the professional paddle championship World Padel Tour will be explained, implementing a 3-level architecture. The dissertation begins by discussing the motivation behind the project and the objectives set at the beginning, as well as the work plan that has been implemented. Before starting the project development, the next chapter explains the set of technologies that have been used in the development. While explaining the platform development, the dissertation will address the
- Published
- 2023
17. Detection of health patterns in smart cities
- Author
-
Díaz Honrubia, Antonio Jesús, Rodrigo Patiño, Santiago, Díaz Honrubia, Antonio Jesús, and Rodrigo Patiño, Santiago
- Abstract
La calidad del aire se ha convertido en uno de los mayores desafíos mundiales a los que se enfrentan las ciudades de todo el globo debido al impacto negativo en la salud de las personas, especialmente en términos de hospitalizaciones, muertes y enfermedades crónicas que causa. El objetivo de este Trabajo de Fin de Grado consiste en realizar un análisis exhaustivo y multidimensional de la relación entre enfermedades respiratorias y el entorno socioeconómico y ambiental de las personas en la ciudad de Nueva York. Se ha prestado especial atención al cáncer de pulmón, el cáncer traqueobronquial y el asma, que son algunas de las principales causas de morbilidad y mortalidad en el mundo, así como a los índices de contaminación ambiental e indicadores de pobreza. Los análisis realizados se sustentan sobre la recopilación de datos mediante sensores ambientales y de encuestas sobre la salud y el bienestar de la población realizadas por organismos públicos. El uso de tecnologías asociadas a las Smart Cities ha sido fundamental para obtener los datos urbanos, especialmente de contaminación ambiental, de forma eficiente y fiable Como principal resultado del proyecto, se concluye que las condiciones respiratorias, como el asma y los ataques de asma, han aumentado considerablemente en las últimas dos décadas a la vez que ha habido una tendencia decreciente en los niveles de PM2.5, CO2, NO2 y SO2 y creciente en los de O3. Se ha concluido que el impacto de la calidad del aire es muy reducida (r ∈ [-0.1, 0.2] ) siendo los indicadores socioeconómicos mucho más relevantes (r = 0.84). Dichos indicadores socioeconómicos también revelan las importantes desigualdades entre regiones cercanas que conllevan impactos en la salud en el largo plazo. Así mismo, se ha desarrollado una herramienta denominada DIVE - Data Insight Visualization Engine que permite visualizar los diferentes indicadores urbanos y su correlación de forma interactiva y sencilla para que los organismos de decisión puedan d
- Published
- 2023
18. Desarrollo de una aplicación basada en identidad digital y tecnologías DLT para el sector financiero
- Author
-
Díaz Honrubia, Antonio Jesús, Vega Fernández, Eduardo de la, Díaz Honrubia, Antonio Jesús, and Vega Fernández, Eduardo de la
- Abstract
En la actualidad, los sistemas de identidad digital evolucionan a gran velocidad, permitiendo la creación de sistemas robustos y seguros para los usuarios, pero complejos de utilizar para los desarrolladores. Entre estos sistemas, destaca la identidad digital auto-soberana. Por este motivo, el presente proyecto expone el desarrollo de una aplicación conocida como Wallet capaz de gestionar la identidad digital auto-soberana, sencilla de utilizar e integrar en desarrollos futuros. Para hacerlo, se expone también la creación de una API sustituta de la solución oficial propuesta por la Unión Europea, para el período de tiempo en el que ésta esté cerrada al público. Por último, se propone y muestra un caso de uso de este sistema para solucionar un problema del sector financiero: la puntuación crediticia de las personas actualmente se comparte de forma ajena a los usuarios, sin su consentimiento. Se expone cómo el sistema desarrollado puede evitar este problema, cediendo la información al usuario, dejando que sea este el que la comparta libremente, y pudiendo verificar que esta información es cierta. ABSTRACT Presently, digital identity systems are evolving at a rapid pace, enabling the development of robust and secure systems for users, but presenting complexity for developers. Among these systems, self-sovereign digital identity stands out prominently. For this reason, this project elucidates the development of an application known as Wallet, capable of managing self-sovereign digital identity in a user-friendly manner, with potential integration into future developments. To accomplish this, the project also presents the creation of a substitute API for the official solution proposed by the European Union, to serve during periods when the original system is inaccessible to the public. Finally, the project proposes and demonstrates a use case for this system to address an issue in the financial sector: personal credit scores are currently shared without the user's consen
- Published
- 2023
19. Diseño de una aplicación para consulta de datos de pacientes con cáncer de mama
- Author
-
Díaz Honrubia, Antonio Jesús, Cerezo Rubio, Javier, Díaz Honrubia, Antonio Jesús, and Cerezo Rubio, Javier
- Abstract
El cáncer de mama es un problema de salud mundial por lo que la detección temprana resulta un elemento esencial para incrementar las tasas de supervivencia. El manejo y la interpretación adecuada de la gran cantidad de datos relacionados con pacientes con un historial oncológico es una oportunidad inestimable para mejorar el diagnóstico y el tratamiento. Sin embargo, los datos sin una organización y análisis carecen de utilidad para las decisiones clínicas. Para enfrentar este desafío, se ha emprendido el desarrollo de la aplicación MedicalMetrics, para que mediante la creación y visualización de cohortes, se puedan analizar e identificar patrones en los datos de pacientes con cáncer de mama. La primera parte de este trabajo se enfocó en el análisis exhaustivo de los datos disponibles en los informes de los pacientes, seguido de su validación. Esta fase involucró la extracción y análisis de los informes obtenidos de la base de datos que almacenaban los detalles de los pacientes. A continuación, se procedió con el desarrollo de la aplicación. Este proceso implicó la construcción de una interfaz de usuario amigable y una arquitectura de back-end sólida. La aplicación permite a los usuarios filtrar a pacientes con cancer de mama al definir cohortes basadas en diversas categorías (aspectos demográficos, características del tumor, detalles del tratamiento…). De esta forma, se proporciona un nivel de personalización que permite análisis detallados y específicos según los intereses del médico. Además de la creación de cohortes, se implementaron técnicas de visualización de datos sobre las cohortes para facilitar la interpretación de los resultados y encontrar tendencias en los gráficos. ABSTRACT Breast cancer is a global health issue so early detection is a crucial factor to increase survival rates. Proper management and interpretation of the vast amount of data related to patients with a cancer history present an invaluable opportunity for improving diagnosis and treatmen
- Published
- 2023
20. Paralelización del particionado de bloques en el estándar de compresión de vídeo VVC
- Author
-
Díaz Honrubia, Antonio Jesús, González Ruiz, Alberto, Díaz Honrubia, Antonio Jesús, and González Ruiz, Alberto
- Abstract
El contenido multimedia en formato vídeo en la actualidad se ha vuelto cada vez más relevante debido a su capacidad para transmitir información de manera efectiva y atractiva. El crecimiento de los formatos multimedia se debe a varios factores técnicos, tales como: • El crecimiento y la popularidad de los dispositivos inteligentes. • Aumento de las plataformas de contenido multimedia en línea. • Atractivo de los contenidos multimedia como medio de comunicación. Considerando las destacadas ventajas presentadas por este formato, es importante señalar que el crecimiento y la relevancia de los formatos multimedia en la actualidad han resultado en una serie de problemas técnicos asociados con la transmisión y el acceso a los contenidos. Específicamente, el principal obstáculo técnico reside en el costo asociado a la calidad de imagen. A medida que se aumenta la calidad, se requiere una mayor capacidad de envío y almacenamiento para garantizar una experiencia óptima del usuario. Para abordar los desafíos del tamaño del formato de vídeo, se ha desarrollado la codificación, un método crucial en la actualidad. La codificación de vídeo es un proceso complejo y costoso que busca reducir el tamaño de la información utilizando técnicas de pérdida adaptativa. Tras este proceso, la decodificación en el receptor permite recuperar el contenido original de los datos y se caracteriza por una mayor velocidad debido a una menor carga computacional. El presente Trabajo de Fin de Grado (TFG) se enfoca en mejorar el rendimiento de un codificador de vídeo VTM basado en el estándar VVC. La codificación ha evolucionado durante más de 50 años, lo que ha resultado en una carga computacional elevada y un proceso excesivamente lento. Para abordar este problema, se busca implementar técnicas de paralelización que aprovechen el poder de procesamiento de las computadoras modernas. Al utilizar múltiples núcleos, el procesador puede distribuir la carga de trabajo, lo cual se traduce en un mejor rendim
- Published
- 2023
21. Análisis y visualización de datos clínicos de pacientes con cáncer de mama
- Author
-
Díaz Honrubia, Antonio Jesús, García Pérez, Álvaro, Díaz Honrubia, Antonio Jesús, and García Pérez, Álvaro
- Abstract
El cáncer de mama es una de las afecciones más prevalentes en el mundo. Se trata del tipo de cáncer que más afecta a las mujeres a nivel global con más de 2,2 millones de casos en el 2020. Sin embargo, la interpretación y análisis de los datos asociados a esta enfermedad sigue siendo un gran desafío debido a la heterogeneidad y complejidad de la información, lo que ha creado la necesidad emergente de contar con herramientas eficaces que permitan realizar un correcto estudio de los datos de los pacientes con cáncer de mama, facilitando la identificación de patrones y tendencias en la evolución de la enfermedad. Este TFG surge como respuesta a esta necesidad, y propone una solución mediante el diseño e implementación de una plataforma web. Esta plataforma permite, en primer lugar, la creación de cohortes, es decir, permite al personal sanitario filtrar y seleccionar entre todos los pacientes y tumores aquellos que cumplan con ciertos criterios específicos de interés. Esta funcionalidad de creación de cohortes permite al personal sanitario enfocarse en un grupo de pacientes específico que cumpla con ciertos criterios de interés, ya sean demográficos, clínicos o relativos al tumor. Por ejemplo, podrían elegir pacientes de cierta edad, con un tipo específico de tumor, o en una etapa particular de la enfermedad. Esta característica es especialmente útil en investigación y en la toma de decisiones clínicas, ya que permite analizar y entender mejor los patrones y tendencias dentro de un grupo específico, en vez de intentar extraer información útil de un conjunto masivo y diverso de datos, que podría diluir o esconder patrones relevantes en subgrupos específicos Posteriormente, una vez filtrados los pacientes y tumores mediante las cohortes, la aplicación brinda la opción de visualizar de manera gráfica los datos seleccionados. Para ello, el usuario puede escoger la variable de interés (relativa a estos pacientes o sus tumores) y el tipo de gráfico que desea utilizar para vi
- Published
- 2023
22. Aplicación para la detección de fraude en ajedrez mediante machine learning
- Author
-
Díaz Honrubia, Antonio Jesús, Arias Carrasco, Carlos, Díaz Honrubia, Antonio Jesús, and Arias Carrasco, Carlos
- Abstract
Las trampas en el ajedrez con la aparición y accesibilidad de módulos de análisis se han hecho cada vez más presentes en la actualidad alterando el transcurso natural y justo del juego generando partidas adulteradas. Este trabajo tiene como objetivo desarrollar una aplicación web que mediante machine learning se detecte si se han realizado trampas en la partida de ajedrez introducida por el usuario. La aplicación web, implementada mediante el framework Flask de Python, cuenta con la posibilidad de análisis de partidas de ajedrez y su posterior guardado. Las páginas disponibles para los usuarios son la página home en la cual introducir las partidas para realizar la predicción, la página de partidas donde puede observar las anteriormente guardadas y la página profile donde tiene una visión general de los datos presentes del perfil. La creación del modelo de machine learning se ha realizado mediante aprendizaje supervisado introduciendo partidas obtenidas de las principales páginas de ajedrez. Su evaluación se ha llevado mediante validación cruzada utilizando las métricas de exactitud, precisión y recall. Una vez entrenado el modelo se vincula con la aplicación web para realizar las predicciones de las partidas introducidas por los usuarios y se diseña su respuesta que será mostrada en la aplicación. Finalmente, se revisa todo el código para garantizar su calidad, legibilidad y coherencia para una continuación próspera con el desarrollo en el futuro. ABSTRACT Cheating in chess with the appearance and accessibility of analysis modules has become more prevalent nowadays, disrupting the natural and fair course of the game and resulting in adulterated matches. The objective of this work is to develop a web application that uses machine learning to detect cheating in the chess game submitted by the user. The web application, implemented using the Flask framework in Python, has the possibility of analysis chess games and their subsequent storage. The available pages for user
- Published
- 2023
23. Desarrollo de una aplicación para la planificación y gestión de viajes en grupo
- Author
-
Díaz Honrubia, Antonio Jesús, García Solórzano, Andrés, Díaz Honrubia, Antonio Jesús, and García Solórzano, Andrés
- Abstract
Este TFG consiste en el desarrollado de una aplicación que permite a los usuarios planificar y gestionar sus viajes de forma sencilla. El funcionamiento de ésta es el siguiente. Después de iniciar sesión los usuarios se encuentran con una pantalla que muestra de varias sus viajes futuros y pasados y un calendario con todas las fechas. Desde esta pantalla el usuario se puede mover moverse a la pantalla especifica de cada viaje. En la pantalla de información de cada viaje se muestra el nombre y estado de planificación de este, una lista de tarjetas con información relevante sobre el viaje (tarjetas de componente) y dos botones, uno para modificar información del viaje e invitar o eliminar participantes y otro para añadir nuevos componentes. La aplicación cuenta con 7 tipos de componente distintos, cada uno para un aspecto de la planificación del viaje. Cada tipo de componente tiene dos representaciones visuales, la primera es la tarjeta del componente que actúa como vista previa permitiendo al usuario ver un resumen de su contenido y que en caso de ser pulsada lleva al usuario a la segunda representación del componente, una pantalla en la que se muestra toda la información del y permite al usuario actualizarla en tiempo real. Los 7 tipos de componente que se pueden añadir a un viaje son: • Componente de distribución de habitaciones • Componente de confirmación de asistencia • Componente de gestión de gastos • Componente de lista de la compra • Componente de distribución de tareas • Componente de equipaje grupal • Componente de gestión de fechas Toda la información de un viaje se actualiza en tiempo real para todos los invitados a este, esto es posible gracias a un servidor node.js que conecta la aplicación con una base de datos MySQL. En el servidor se reciben eventos disparados por la aplicación, según el evento y la información que lo acompaña se lee, borra, escribe o actualiza la base de datos, se procesa la información y se envía a la aplicación para actualizar su
- Published
- 2023
24. Paralelización del codificador de vídeo VTM
- Author
-
Díaz Honrubia, Antonio Jesús, Bayona Garavito, Sebastian, Díaz Honrubia, Antonio Jesús, and Bayona Garavito, Sebastian
- Abstract
Este proyecto propone una modificación al VTM (VVC Test Model), un software de referencia para el estándar Versatile Video Coding (VVC). El objetivo es mejorar el proceso de estimación de movimiento mediante la introducción de técnicas de programación paralela, lo que resulta en un mejor rendimiento de compresión. La modificación se centra en optimizar el codificador VTM para obtener el mejor vector de movimiento para cada proceso de estimación, lo que actualmente se logra a través de una búsqueda heurística secuencial. Para lograr esto, el proyecto emplea una combinación de herramientas de programación paralela, incluida la función de "paralelismo estándar" de NVIDIA HPC SDK, OpenMP para multi-threading y vectorización del kit de herramientas Intel OneAPI Base. Además, los kérnel CUDA se utilizarán para implementar un algoritmo de predicción de movimiento paralelo. Contribuyendo a la popularización del estándar por su heterogeneidad en sus dispositivos de procesamiento. Este proyecto aborda la necesidad de mejorar la compresión de video y es compatible con la variedad más amplia de contenido multimedia y aplicaciones emergentes proporcionadas por el estándar VVC. Al optimizar el codificador VTM a través de técnicas de programación en paralelo, se pueden lograr reducciones significativas en el tiempo de codificación mientras se mantiene la calidad del video. La viabilidad y eficacia de las modificaciones propuestas se demostrará a través de experimentos utilizando una versión bifurcada del codificador VTM. Esta investigación muestra el potencial de la programación paralela para mejorar los estándares de compresión de video y brinda información para la implementación en el mundo real y los avances futuros en la tecnología VVC. ABSTRACT This project proposes a modification to the VTM (VVC Test Model), a reference software for the Versatile Video Coding (VVC) standard. The objective is to enhance the motion estimation process by introducing parallel programming techniq
- Published
- 2023
25. Aplicación web para gamificación educativa basada en la resolución de misterios
- Author
-
Díaz Honrubia, Antonio Jesús, Campo Martín, Jaime, Díaz Honrubia, Antonio Jesús, and Campo Martín, Jaime
- Abstract
Este proyecto tiene como idea principal el desarrollo de una aplicación web para gamificación educativa. La gamificación educativa es una estrategia didáctica que está cogiendo importancia estos últimos años y que se basa en el empleo de recursos o técnicas propias de los juegos en la educación, favoreciendo la motivación y la implicación por parte del estudiante. La asignatura en la que se pretende lanzar esta aplicación es en la asignatura de Bases de Datos de la Escuela Técnica Superior de Ingenieros Informáticos, ya que en esta asignatura ya existe una competición que utiliza elementos de la gamificación, lo que favorece la aceptación del alumno a una nueva competición sin muchas dificultades. La aplicación se va a desarrollar haciendo uso del framework Symfony, que facilita el entendimiento y el manejo del código PHP, que es el lenguaje elegido para el desarrollo del código de la aplicación web debido a su popularidad y a su sencillez. Symfony cuenta con varias herramientas que son útiles para el proyecto, como Doctrine que proporciona una capa de abstracción para el uso de la base de datos sin necesidad de que el desarrollador tenga que realizar las consultas de SQL. El enfoque elegido para esta aplicación ha sido la resolución de misterios o escape rooms, debido a que hace uso de diferentes recursos de la gamificación y a que para la participación en este tipo de juegos se requiere de mayor iniciativa e implicación por parte del alumno que en otros juegos. La aplicación va a compartir página web y base de datos con la competición ya implantada en la asignatura, por lo que hay características, como el inicio de sesión, que ya están implementadas, permitiendo centrar el esfuerzo únicamente en el desarrollo de las funcionalidades necesarias para la realización de la resolución de misterios y la compatibilidad con lo ya desarrollado. La resolución de misterios consiste en que los alumnos que participen van a tener que encontrar diferentes palabras, que están esco
- Published
- 2023
26. Técnicas de detección de áreas de interés para el espectador orientadas a la compresión de vídeo
- Author
-
Ríos Sánchez, Belén, Díaz Honrubia, Antonio Jesús, Sánchez Sánchez, Pablo, Ríos Sánchez, Belén, Díaz Honrubia, Antonio Jesús, and Sánchez Sánchez, Pablo
- Abstract
El crecimiento exponencial del consumo de vídeos ha generado la necesidad de encontrar soluciones eficientes para la compresión y distribución de contenido. En este sentido, la detección de áreas de interés se presenta como una tecnología prometedora para mejorar la calidad de la compresión y la experiencia del espectador. El objetivo de este trabajo es realizar una revisión exhaustiva de los métodos actuales de predicción de la atención del usuario durante la visualización de vídeos y compararlos utilizando métricas específicas. Se recopilan diversas técnicas utilizadas en la detección de áreas de interés y se analizan en detalle, destacando sus fundamentos teóricos y metodologías. A través de las comparativas realizadas, se concluyó que no existe un método superior en todas las métricas y conjuntos de datos probados. Sin embargo, se evidenció un progreso notable en el campo en un corto período de tiempo. El algoritmo SALDCP demostró un rendimiento destacado, logrando mejoras significativas en almacenamiento y velocidad de compresión. Se espera que la evolución continua y los avances en inteligencia artificial impulsen mejoras adicionales en la compresión de vídeo y beneficien la experiencia del espectador. ABSTRACT The exponential growth of video consumption has created the need to find efficient solutions for compression and distribution of content. In this regard, area of interest detection emerges as a promising technology to enhance compression quality and viewer experience. The objective of this work is to provide a comprehensive review of current methods for predicting user attention during video viewing and to compare them using specific metrics. Various techniques used in area of interest detection were gathered and analyzed in detail, highlighting their theoretical foundations, methodologies, and potential advantages and disadvantages. Through the conducted comparisons, it was concluded that no single method outperforms others across all tested metrics an
- Published
- 2023
27. Biblioteca para la evaluación sistemática de algoritmos de clustering
- Author
-
Díaz Honrubia, Antonio Jesús, Heras Calvo, Daniel, Díaz Honrubia, Antonio Jesús, and Heras Calvo, Daniel
- Abstract
Los algoritmos de agrupamiento, conocidos como algoritmos de clustering, son técnicas englobadas dentro del Aprendizaje no Supervisado, cuyo objetivo es crear conjuntos con propiedades comunes, a la vez que separarlos del resto de conjuntos con los que no comparten estas similitudes. Son utilizados en numerosos ámbitos del mundo real, como en la biología computacional para clasificar animales y plantas, la medicina para identificar enfermedades o el marketing para identificar personas con hábitos de compras similares. Los resultados obtenidos mediante las técnicas de clustering dependen de varios componentes principales. Estos son el conjunto de datos, el algoritmo y su configuración, y las medidas de similitud utilizadas. Seleccionar estos componentes adecuadamente es fundamental para realizar un agrupamiento óptimo. Sin embargo, la evaluación de los resultados obtenidos no es trivial, debido a que, a diferencia de otros problemas, como los de clasificación o regresión, no usan un etiquetado de partida que pueda servir para comparar los resultados obtenidos. Esto no quiere decir que no existan métodos que midan estos resultados. Se han propuesto muchas medidas de calidad, también conocidas como métricas, para evaluar los agrupamientos, basándose en las premisas de que los clusters deben tener la mínima distancia entre los elementos del mismo grupo y la máxima separación entre los elementos de diferentes grupos. Aun así, estas métricas no utilizan los mismos cálculos matemáticos y en ocasiones obtienen resultados contradictorios. Si se selecciona una de estas de forma arbitraria, se corre el peligro de obtener resultados inesperados o inválidos. Existen bibliotecas, como Nbclust de R, que ofrecen la posibilidad de evaluar varias métricas para determinar cómo de bueno es el algoritmo y su configuración. No obstante, están limitadas únicamente a ciertos algoritmos e hiperparámetros. Por este motivo, la intención de este Trabajo de Fin de Grado es desarrollar una bibli
- Published
- 2023
28. Desarrollo de un videojuego educativo para el aprendizaje de mecanografía
- Author
-
Díaz Honrubia, Antonio Jesús, Val Asensio, Enrique, Díaz Honrubia, Antonio Jesús, and Val Asensio, Enrique
- Abstract
Actualmente, vivimos en una sociedad cada vez más informatizada. La mayoría de puestos de trabajo, así como los estudios de distintos niveles, requiere el uso de sistemas informáticos para su correcto desempeño. El problema radica en que no todas las personas tienen los conocimientos adecuados para el manejo de estos sistemas en materias tan básicas como es la mecanografía. Es por ello que se ha ideado un proyecto de desarrollo de un videojuego cuyo objetivo principal no es solo entretener a sus usuarios, sino también educarlos en la técnica de la mecanografía. Esto se pretende conseguir de forma orgánica y natural, pues, en vez de simplemente indicarle un texto o una serie de caracteres que debe introducir sin ningún incentivo, se le ofrece una experiencia lúdica en el que se pone al usuario en situaciones de tensión en las que, inconscientemente, escribirá de modo más rápido para sobrevivir a todos los obstáculos y enemigos en la partida que esté jugando. Estos enemigos presentarán retos mecanográficos únicos, divertidos y originales. Para ello, se explicará en detalle las tecnologías que se han empleado para este desarrollo, así como la metodología que se ha decidido seguir. Posteriormente, se explicará la planificación del proyecto, explicando la organización, en cuanto a materias de tiempo y esfuerzo, que se quiere seguir para poder desarrollar las distintas tareas. Estas tareas se corresponderán con las numerosas funcionalidades que tiene el videojuego, las cuales son explicadas con gran detalle en el apartado de «Desarrollo». Luego, se realizarán ciertas pruebas de usabilidad realizada por usuarios de todas las edades y niveles de mecanografía para comprobar si se cumple con los objetivos principales del proyecto, realizando un análisis exhaustivo de los resultados obtenidos, así como de las opiniones de los usuarios cuestionados. Por último, se valorará el impacto que puede tener este proyecto a distintos niveles, como puede ser el impacto social y económico
- Published
- 2023
29. Solución de firma y gestión documental basada en la nube
- Author
-
Díaz Honrubia, Antonio Jesús, Prieto Martínez, Óscar Javier, Díaz Honrubia, Antonio Jesús, and Prieto Martínez, Óscar Javier
- Abstract
Este Trabajo de Fin de Grado presenta una solución innovadora de firma y gestión documental basada en la nube y en tecnología Blockchain. Para ello, se han analizado las propuestas existentes, identificando sus limitaciones y proponiendo mejoras significativas. Antes de iniciar el desarrollo, se contrastan y eligen las tecnologías para utilizar en el presente trabajo, incluyendo el entorno de desarrollo, los servicios en la nube y las herramientas necesarias para implementar el sistema. Se realiza un análisis de la normativa vigente en materia de firma electrónica, lo que permite definir la propuesta y especificar los requisitos, tanto funcionales como de calidad. El desarrollo de este trabajo presenta dos aspectos fundamentales, la gestión documental y la firma electrónica, sin obviar otros servicios como la gestión de usuarios o la interfaz gráfica. La gestión de documentos se integra mediante contratos inteligentes con la Blockchain, aportando seguridad e integridad. En cuanto a la firma electrónica, se han implementado dos tipos de firma diferentes: la firma electrónica avanzada, basada en datos biométricos del firmante, y la firma electrónica cualificada, basada en la criptografía y los certificados digitales. Una vez completado el desarrollo, se crea una interfaz intuitiva para que los usuarios puedan firmar documentos de manera cómoda y sin necesidad de software adicional. Además, se realiza una integración con el servicio de Power Automate de Microsoft, demostrando así la fácil adaptación a diversos entornos. Por último, se evalúa toda la propuesta mediante una prueba de usabilidad, de la que se sacan resultados significativos para poder explicar los logros obtenidos, identificar el trabajo futuro y analizar el impacto en la sociedad. ABSTRACT This Final Degree Project presents an innovative signature and document management solution based on the cloud and Blockchain technology. In order to achieve this, existing proposals have been analysed, identifying the
- Published
- 2023
30. Modificación del codificador de vídeo VTM para adaptación de la calidad de imagen por áreas
- Author
-
Díaz Honrubia, Antonio Jesús, Fernández Lagos, Pablo, Díaz Honrubia, Antonio Jesús, and Fernández Lagos, Pablo
- Abstract
Con la llegada de la pandemia y el auge de los servicios de streaming, el consumo de vídeo se ha incrementado de manera considerable en los últimos años, aumentando la ya creciente tendencia de consumo de vídeo en la sociedad. Este aumento de consumo ha demostrado la necesidad de nuevos estándares de codificación que mejoren la eficiencia en el bitrate de los vídeos, así como nuevas técnicas de compresión que complementen a las proporcionadas por los codificadores. En respuesta a esta problemática surge el estándar de compresión VVC, que promete solucionar y mejorar estos problemas. En este Trabajo de Fin de Grado se va a realizar la modificación del codificador de vídeo VTM, perteneciente al estándar VVC, para permitir la adaptación de la calidad de imagen por áreas. En esta implementación se hace uso de la técnica de codificación perceptual, en la cual se codifican con menor calidad aquellas zonas donde el espectador no se enfoca de manera que mantenemos la calidad en aquellas que sí reduciendo el bitrate del vídeo. Se realizarán diversas pruebas con distintos archivos de configuración con las cuales se evaluará la eficiencia de la implementación realizada, con la ayuda de un programa que analizará la salida del vídeo resultante de esta codificación.---ABSTRACT---With the advent of the pandemic and the rise of streaming services, video consumption has increased considerably in recent years, adding to the already growing trend of video consumption in society. This increase in consumption has demonstrated the need for new encoding standards to improve video bitrate efficiency, as well as new compression techniques to complement those provided by encoders. In response to this problem, the VVC compression standard has emerged, which promises to solve and improve these problems. In this Final Degree Project we are going to modify the VTM video encoder, which belongs to the VVC standard, to allow the adaptation of the image quality by areas. This implementation makes us
- Published
- 2023
31. Multiple Reference Frame Transcoding from H.264/AVC to HEVC
- Author
-
Diaz-Honrubia, Antonio Jesus, Martinez, Jose Luis, Cuenca, Pedro, Hutchison, David, editor, Kanade, Takeo, editor, Kittler, Josef, editor, Kleinberg, Jon M., editor, Mattern, Friedemann, editor, Mitchell, John C., editor, Naor, Moni, editor, Nierstrasz, Oscar, editor, Pandu Rangan, C., editor, Steffen, Bernhard, editor, Sudan, Madhu, editor, Terzopoulos, Demetri, editor, Tygar, Doug, editor, Vardi, Moshe Y., editor, Weikum, Gerhard, editor, Gurrin, Cathal, editor, Hopfgartner, Frank, editor, Hurst, Wolfgang, editor, Johansen, Håvard, editor, Lee, Hyowon, editor, and O’Connor, Noel, editor
- Published
- 2014
- Full Text
- View/download PDF
32. Low-complexity heterogeneous architecture for H.264/HEVC video transcoding
- Author
-
Díaz-Honrubia, Antonio Jesús, Cebrián-Márquez, Gabriel, Martínez, José Luis, Cuenca, Pedro, Puerta, José Miguel, and Gámez, José Antonio
- Published
- 2016
- Full Text
- View/download PDF
33. A Trusted Platform Module-based, Pre-emptive and Dynamic Asset Discovery Tool
- Author
-
Díaz Honrubia, Antonio Jesús, Blázquez Herranz, Alberto, Prieto Santamaría, Lucía, Menasalvas Ruiz, Ernestina, Rodríguez González, Alejandro, Gonzalez Granadillo, Gustavo, Diaz, Rodrigo, Panaousis, Emmanouil, Xenakis, Christos, Díaz Honrubia, Antonio Jesús, Blázquez Herranz, Alberto, Prieto Santamaría, Lucía, Menasalvas Ruiz, Ernestina, Rodríguez González, Alejandro, Gonzalez Granadillo, Gustavo, Diaz, Rodrigo, Panaousis, Emmanouil, and Xenakis, Christos
- Abstract
This paper presents an original Intelligent and Secure Asset Discovery Tool (ISADT) that uses artificial intelligence and TPM-based technologies to: (i) detect the network assets, and (ii) detect suspicious pattern in the use of the network. The architecture has specifically been designed to discover the assets of medium and large size companies and institutions, such as hospitals, universities, or government buildings. Given the distributed design of the architecture, it can cope with the problem of the isolation of different Virtual Local Area Networks (VLANs). This is done by collecting information from all the VLANs and storing it in a central node, which can be accessed by the network administrator, who may consult and visualize the status in any moment, or even by other authorized applications. The collected data is kept in a secure warehouse by the use of a Trusted Platform Module. Moreover, collected data is processed by the use of artificial intelligence in two ways: (i) the traffic of each network is analysed so that suspicious patterns can be detected, and (ii) identified ports and status are analysed to detect anomalous combinations of open ports in a device.
- Published
- 2022
34. Plataforma de gestión para “The great quiz of databases”
- Author
-
Díaz Honrubia, Antonio Jesús, Andrés López, Pablo de, Díaz Honrubia, Antonio Jesús, and Andrés López, Pablo de
- Abstract
Este trabajo se ha centrado en la implementación de una plataforma de gestión para la aplicación “The Great Quiz of Databases”. Esta aplicación, desarrollada en Symfony, consiste en una competición de SQL para la asignatura Bases de Datos en la que el estudiante debe responder mediante consultas SQL lo que se le pide. Sin embargo, el principal problema de esta competición es que, aunque había varias semanas para completarla, se podía completar en unas pocas horas y además cubría sólo el bloque de SQL en lugar de toda la asignatura por lo que no se premiaba el estudio constante de los estudiantes. El trabajo realizado consiste en una extensión de dicha plataforma cuyo propósito es el aprendizaje constante de los alumnos ya que la competición ahora se realizará de forma semanal a través de sesiones online en directo utilizando la plataforma Wooclap. De esta forma se valorará y se fomentará el estudio y seguimiento constante de la asignatura por parte de los estudiantes. Esta extensión consiste principalmente en un panel de control con varias funcionalidades para que los profesores puedan realizar tareas de una forma mucho más eficiente y rápida como la creación nuevos problemas o la modificación de algunos datos de los estudiantes como sus puntuaciones. Por ejemplo, si anteriormente un profesor quería añadir puntuaciones a varios alumnos, éste tenía que introducirlos uno por uno en la base de datos lo cual podía llevar mucho tiempo. Ahora, el profesor puede introducir dichas puntuaciones en un fichero Excel, que podrá además ser exportado de la plataforma Wooclap, y el sistema, además de analizarlo por si hay algún error, introducirá las puntuaciones automáticamente en su Base de Datos. Una vez realizada dicha extensión, se procederá a su evaluación mediante pruebas de usabilidad en la que se le requerirá a usuarios distintos a realizar diferentes tareas y posteriormente se les pedirá completar un test de usabilidad SUS (System Usability Scale). De esta manera, se esp
- Published
- 2022
35. Big Data para la comprensión de métricas de E-Sports usando tecnologías web
- Author
-
Díaz Honrubia, Antonio Jesús, Montorio Piñeiro, Álvaro, Díaz Honrubia, Antonio Jesús, and Montorio Piñeiro, Álvaro
- Abstract
A lo largo de esta memoria se puede observar el proceso de desarrollo desde el principio hasta el final de una plataforma web completamente integrada con el juego de realidad virtual de Eleven Table Tennis (juego de ping pong), que permita a todos sus usuarios observar diferentes estadísticas de juego, historial de partidos y tablas de clasificación obtenidos de una API desarrollada desde cero. Antes de explicar el desarrollo, se explican todas las tecnologías utilizadas, haciendo énfasis en aquellas que son más importantes en la realización de este Trabajo de Fin de Grado. Posteriormente, se procede a relatar que fuentes de información se han utilizado y sus características y que trato han sufrido los datos en bruto para ser analizados en pasos posteriores. A continuación, en la memoria, se explica la creación de la API, así como cada una de las posibles llamadas que se han diseñado para esta. Además, se muestra paso por paso el tratamiento de los datos procesados previamente para obtener las métricas que se deseen. Por último, se muestra el producto final, explicando cómo funciona la gestión de usuarios de la página web y mostrando el resultado final mediante los gráficos correspondientes asociados a cada una de las llamadas a la API desarrolladas en el paso anterior.---ABSTRACT---Throughout this memory it is possible to see the development process, from the beginning to the end, of a web page utterly integrated with a virtual reality videogame called Eleven Table Tennis (ping pong videogame). It allows all its users to observe a dashboard with multiple game statistics, match history and leaderboards obtained from an API developed from scratch. Before explaining the development, all the technologies used are explained, emphasizing those that are most important and relevant for creating this Final Degree Project. Afterwards, all the sources of information used and their features are shown. In the same way, all the steps to clean and transform raw data and the prepa
- Published
- 2022
36. Despliegue de una red Blockchain dockerizada
- Author
-
Díaz Honrubia, Antonio Jesús, Vargas Hidalgo, Guillermo, Díaz Honrubia, Antonio Jesús, and Vargas Hidalgo, Guillermo
- Abstract
La información se ha convertido en la moneda de cambio de nuesta sociedad en la última década. Debido a ello, preservarla y comprobar su veracidad se ha convertido en una tarea cada vez más importante. Ante un escenario así, surge la tecnología Blockchain, una alternativa a las bases de datos tradicionales. Dejando de lado la capacidad de almacenaje de datos, esta novedosa tecnología permite certificar la validez e integridad de los mismos, permitiendo elaborar redes distribuidas a gran escala. Cada día existen nuevas aplicaciones relacionadas con esta tecnología, por lo que comprender sus fundamentos es algo imprescindible para poder desarrollar soluciones útiles para la sociedad. En este contexto surge el presente proyecto, que pretende facilitar la implementación de una red privada Blockchain, que permita la interacción de diferentes actores, a través de contratos inteligentes. En concreto, se propone una red que aloje la información policial relativa a las ciudades de Madrid y Barcelona, donde se pueda asegurar la veracidad y trazabilidad de los datos. Para poder lograr el objetivo planteado se utilizará el framework de ’Hyperledger Fabric’. Este proyecto incorpora todo el proceso de configuración, explicando detalladamente cada fichero asociado a la arquitectura de la red y su despliegue en contenedores Docker. Del mismo modo, se ha realizado un proceso de despliegue guiado con el fin de comprender la seguridad asociada al proyecto y el material criptográfico que lo valida. Para finalizar, se han desarrollado una serie de funcionalidades a modo de ejemplo, que han sido agrupadas e implementadas en un contrato inteligente. De este modo, ha quedado probada la necesidad de requerir las autorizaciones necesarias en una red de estas características; para poder añadir o almacenar información en la misma.---ABSTRACT---Information has become the currency of our society in the last decade. As a result, preserving it and verifying its veracity has become an increasingly
- Published
- 2022
37. Regulación de acceso a una aplicación médica mediante Keycloak
- Author
-
Díaz Honrubia, Antonio Jesús, Lobato Navacerrada, Daniel, Díaz Honrubia, Antonio Jesús, and Lobato Navacerrada, Daniel
- Abstract
Este Trabajo de Fin de Grado se ha desarrollado en base a la necesidad de construir la capa de seguridad de autenticación de usuarios en una aplicación del sector sanitario. Esta necesidad se debe al gran avance de las tecnologías, que deja atrás las soluciones desarrolladas tradicionalmente, y requiere la adaptación de estas. La solución que se propone en este proyecto es el desarrollo de una aplicación cliente-servidor con la participación de un componente intermedio, el cual se denomina Keycloak, que será el encargado de abstraer la parte de autenticación de usuarios y almacenamiento de información privada de estos fuera del flujo de comunicación entre cliente y servidor. Estos pacientes y clínicos constituyen lo que se denomina aplicación “cliente”, y hacemos uso de ella a través de Postman, un cliente HTTP que nos facilita una API creada para realizar consultas de tipo HTTP hacia nuestro servicio. El servidor en cuestión es una definición e implementación personalizada del estándar de recursos de interoperabilidad sanitaria rápida FHIR®, cuyo objetivo principal es analizar cada petición HTTP que llega al servidor, examinar los denominados scopes y permisos del cliente y devolver una respuesta acorde con dicho análisis de autenticación. Por último, pero no menos importante, se cuenta con un tercer componente, el protagonista de este proyecto: un microservicio dedicado a integrar un componente Keycloak para la definición de identidades y autorizaciones entre el cliente y el servidor que se mencionan anteriormente. Como resultado, este efecto supone un gran reto partiendo de la base de que se pretende extraer la información sensible de un protocolo de comunicación muy convencional y que ha sido atacado y estudiado por entidades anónimas a la industria e incluso por la misma industria. Y se pretende añadir este componente dedicado a la autenticación sin afectar a la comunicación web entre servicios, lo que aporta una gran ventaja basada en los requisitos de abstrac
- Published
- 2022
38. Análisis de datos para predecir el desempeño bursátil de una empresa
- Author
-
Díaz Honrubia, Antonio Jesús, Hernández Sánchez, Juan, Díaz Honrubia, Antonio Jesús, and Hernández Sánchez, Juan
- Abstract
Existen actualmente tres categorías generales de inversión en bolsa: el análisis técnico, el análisis de sentimientos y el análisis fundamental. Las dos primeras categorías se enfocan en la predicción a corto plazo del precio de las acciones, lo cual explica el gran interés existente en ambos campos. La tercera categoría, el análisis fundamental, es la metodología preferida por los mejores inversores del mundo, aunque es menos atractiva, pues promete retornos después de décadas, no de días. A pesar de ser la metodología usada por inversores de la talla de Warren Buffett, el análisis fundamental es una corriente minoritaria y poco estudiada por la literatura académica. Por este motivo, esta metodología de inversión carece de un enfoque objetivo y sistemático que respalde las máximas de la disciplina. La mayoría de los estudios existentes que utilizan el aprendizaje automático y la minería de datos se centran en la creación de modelos de predicción basados en el análisis técnico y el análisis de sentimientos. Sin embargo, la desconexión de estos métodos con los negocios subyacentes y la falta de métodos de valoración de empresas puede afectar negativamente a sus conclusiones y a la efectividad de los modelos propuestos. En este proyecto, se pretende recolectar, preparar y estudiar datos sobre el mercado de valores en los últimos 40 años; ofreciendo fundamentos objetivos desde la perspectiva del análisis fundamental. El objetivo principal de este estudio es extraer conclusiones respaldadas por los hechos que permitan mejorar los rendimientos de los inversores particulares. Posterior al estudio, se utilizarán los datos financieros de más de 2000 empresas, cada una con décadas de información; para el desarrollo de un modelo de aprendizaje automático que permita predecir el precio de las acciones en el medio y largo plazo, para así poder generar carteras de inversión que logren batir al mercado. Durante el proyecto se proponen varios modelos de regresión usando XGBoost, q
- Published
- 2022
39. Autenticación unificada de un sistema de gestión de tutorías docentes
- Author
-
Díaz Honrubia, Antonio Jesús, Viejo Rodríguez, Juan Alfonso, Díaz Honrubia, Antonio Jesús, and Viejo Rodríguez, Juan Alfonso
- Abstract
Los alumnos de la ETSIINF de la UPM disponen actualmente de múltiples sistemas que les permiten gestionar los diferentes recursos a su alcance, como son las aulas de estudio y ordenadores, entre otros. Sin embargo, un recurso como las tutorías no dispone de ningún sistema que permita una fácil gestión, tanto para alumnos como para profesores. Actualmente, si un alumno desea tener una tutoría con un profesor, debe de solicitar la tutoría por correo o, a raíz de la pandemia del COVID-19, a través de la popular herramienta Microsoft Teams. En ocasiones, como antes de los exámenes o de la entrega de alguna práctica, un profesor puede recibir múltiples peticiones para tutorías, lo que puede provocar dificultades a la hora de organizar a muchos alumnos. Para solucionar esta problemática en un Trabajo Fin de Grado se creó una aplicación web desde la que tanto profesores como estudiantes puedan gestionar con mayor facilidad las citas de tutorías, de forma que un profesor pueda especificar los horarios y días de tutorías. Además, esta especificación de los horarios beneficia a los alumnos, ya que les permite saber la hora concreta de la cita. En otro Trabajo Fin de Grado, para ayudar a la gestión de las tutorías a los profesores, se integró el calendario de Google mediante el plugin de JavaScript FullCalendar, de forma que los profesores pudiesen consultar las citas que han concertado los alumnos en un calendario dentro de la propia aplicación, sin tener que usar ninguna aplicación externa. Sin embargo, los usuarios se pueden registrar, sin realizarse un control de los usuarios. Por ello, este proyecto pretende modificar el sistema de autenticación de la aplicación, para restringir el uso de la aplicación a aquellas personas autorizadas por la escuela. Para ello, se ha modificado el sistema de autenticación con la base de datos por un sistema LDAP, de forma que se pueda gestionar, junto con otros sistemas, las personas con acceso a esta aplicación. Por otro lado, se han real
- Published
- 2022
40. Aplicación para la clasificación de imágenes oftalmológicas generadas mediante redes GAN
- Author
-
Díaz Honrubia, Antonio Jesús, Hoyo Rubio, José Bono del, Díaz Honrubia, Antonio Jesús, and Hoyo Rubio, José Bono del
- Abstract
En este Trabajo de Fin de Grado se ha realizado el diseño, implementación y validación de un sistema para dar ayuda a los médicos etiquetando imágenes de fondo de ojo (o retinografías) y de Tomografía de Coherencia Óptica según varias características. Se ha realizado para intentar ayudar en una causa médica, como puede ser en este caso a las personas que sufren miopía magna (más severa que la miopía normal); la miopía es considerada una pandemia y se estima que en 2050 la padezca el 52% de la población mundial. Para hacer frente a este problema, este trabajo propone implementar una aplicación web usando el framework Symfony para que oftalmólogos expertos puedan etiquetar cada una de las 1000 imágenes que pueden ser reales o generadas mediante inteligencia artificial (mediante Redes Generativas Antagónicas, GAN), marcando si consideran que una imagen es falsa (generada mediante la red GAN) o el grado de los tres factores de clasificación de la miopía magna en caso de que se consideren que pueden ser de pacientes reales. Para ello se han tenido en cuenta una serie de tareas y objetivos que se explicarán a lo largo de este trabajo. Se ha utilizado el Modelo Vista Controlador y como software utilizado: MySQL como sistema de gestión de base de datos, Symfony como Framework, PHP y JavaScript como lenguajes y HTML5 y CSS para la parte Web. Los resultados obtenidos han sido: una aplicación funcional, con una vista amigable al usuario y sencilla que se puede manejar sin necesidad de saber nada de programación. Las características de las imágenes etiquetadas se almacenan en la base de datos gracias a un formulario junto con la fecha en la que se ha realizado la evaluación y la calidad de las imágenes de dicho set.---ABSTRACT---In this Final Degree Project, the design, implementation and validation of a system has been carried out to help doctors by labeling fundus images (or retinographies) and Optical Coherence Tomography according to various characteristics. It has been car
- Published
- 2022
41. Diseño y creación de un Servicio Host de Inventario
- Author
-
Díaz Honrubia, Antonio Jesús, Gomes, Carlos Daniel de Freitas, Díaz Honrubia, Antonio Jesús, and Gomes, Carlos Daniel de Freitas
- Abstract
Este trabajo de fin de grado tiene como finalidad responder a la necesidad de la empresa Álamo Consulting de cumplir con la normativa ISO 27001 que hace referencia al estándar de seguridad de la información; llevándolo a la práctica, la consultora necesita tener un inventario de todos los equipos que presta a sus empleados en nómina, de los empleados necesita tener información básica como nombres, apellidos, edad, correo de la empresa, oficina asignada, fecha de ingreso, entre otros; mientras que de los equipos en cuestión necesita almacenar varias características relacionadas con el disco físico, disco virtual, software y programas instalados, versión del sistema operativo, configuraciones básicas, BIOS, etc. Ante esta motivación, la empresa a través de un jefe de equipo desarrolló durante la pandemia una aplicación de formulario WPF, con la cual el usuario podía inventariar su equipo manualmente ingresando su código personal, el número del equipo y su cuenta de correo de la empresa; en caso de ser un administrador, podía también inventariar un equipo con la cuenta de correo de sistemas lo cual activaba nuevas opciones además de las ya mencionadas, como una sección de comentarios o un campo estado para indicar si el equipo estaba en buen estado, mal estado, o de baja. El modus operandi era que antes de entregar un equipo se hiciese una subida de características desde la cuenta ADMINISTRATOR, y luego al ser entregado se hiciese otra por parte del propio usuario. La opción de administrador se guarda para inventariar equipos averiados, ya sea cuando son entregados o cuando ya están reparados; permite esta opción inventariar equipos desde otro, sin recoger sus propiedades. Ahora bien, partiendo de la aplicación anteriormente descrita y con el fin de mantener la información recopilada actualizada periódicamente, la compañía inició el proyecto del Servicio Host de Inventario el cual fue asignado al autor al entrar en la empresa para hacer las prácticas curriculares; este
- Published
- 2022
42. Predicción de áreas de interés para la compresión de vídeo
- Author
-
Díaz Honrubia, Antonio Jesús, Quintana Agudo, Alejandro, Díaz Honrubia, Antonio Jesús, and Quintana Agudo, Alejandro
- Abstract
La tecnología multimedia ha experimentado en los últimos años una revolución, la normalización del uso de Internet y las tecnologías digitales ha provocado un drástico aumento en las necesidades de consumo de productos multimedia. Cada vez consumimos más contenidos multimedia y cada vez se exige una mayor calidad de los mismos, llevando al límite las capacidades de los estándares de codificación actuales y planteando la necesidad de un cambio de paradigma hacia sistemas de codificación perceptuales, que se basan en las características de la vista humana para conseguir una mayor compresión en aquellas zonas que no captan la atención del espectador, respetando aquellas que sí le atraen, las llamadas áreas de interés. En este Trabajo Fin de Grado se llevará a cabo la construcción de un dataset completo con las distintas características que podrían influir en la atención de los distintos observadores sobre las secuencias de vídeo propuestas. La idea es construir un conjunto de datos, que contenga la información por bloques de cada secuencia y las áreas de interés de las mismas. Para lograr dicho objetivo se usarán como base del estudio una serie de secuencias y ficheros con un estudio de la mirada de distintos observadores sobre dichas secuencias. Haciendo uso del software desarrollado en un TFG anterior calcular los estadísticos de las secuencias, posteriormente, crear los procesos y scripts necesarios para mapear dicha información de las miradas de los observadores con las distintas características y estadísticos calculados sobre las secuencias y por último calcular las áreas de interés para el observador de la secuencia.---ABSTRACT---Multimedia technology has suffered in recent declines a great revolution, the standardization in the use of the internet as well as digital technologies has caused a huge increase in the needs of multimedia consumption We consume more and more multimedia content and it has to be with the best quality available, pushing to the limit the c
- Published
- 2022
43. Towards the Representation of Network Assets in Health Care Environments Using Ontologies
- Author
-
Prieto Santamaría, Lucía, additional, Fernández Lobón, David, additional, Díaz-Honrubia, Antonio Jesús, additional, Ruiz, Ernestina Menasalvas, additional, Nifakos, Sokratis, additional, and Rodríguez-González, Alejandro, additional
- Published
- 2021
- Full Text
- View/download PDF
44. Towards the representation of network assets in health care environments using ontologies
- Author
-
Prieto Santamaría, Lucía, Fernandez Lobon, David, Díaz Honrubia, Antonio Jesús, Menasalvas Ruiz, Ernestina, Nifakos, Sokratis, González Rodríguez, Alejandro, Prieto Santamaría, Lucía, Fernandez Lobon, David, Díaz Honrubia, Antonio Jesús, Menasalvas Ruiz, Ernestina, Nifakos, Sokratis, and González Rodríguez, Alejandro
- Abstract
Objectives The aim of the study is to design an ontology model for the representation of assets and its features in distributed health care environments. Allow the interchange of information about these assets through the use of specific vocabularies based on the use of ontologies. Methods Ontologies are a formal way to represent knowledge by means of triples composed of a subject, a predicate, and an object. Given the sensitivity of network assets in health care institutions, this work by using an ontology-based representation of information complies with the FAIR principles. Federated queries to the ontology systems, allow users to obtain data from multiple sources (i.e., several hospitals belonging to the same public body). Therefore, this representation makes it possible for network administrators in health care institutions to have a clear understanding of possible threats that may emerge in the network. Results As a result of this work, the “Software Defined Networking Description Language—CUREX Asset Discovery Tool Ontology” (SDNDL-CAO) has been developed. This ontology uses the main concepts in network assets to represent the knowledge extracted from the distributed health care environments: interface, device, port, service, etc. Conclusion The developed SDNDL-CAO ontology allows to represent the aforementioned knowledge about the distributed health care environments. Network administrators of these institutions will benefit as they will be able to monitor emerging threats in real-time, something critical when managing personal medical information.
- Published
- 2021
45. Cost-efficient HEVC-based quadtree splitting (HEQUS) for VVC Video Transcoding
- Author
-
García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, Mallikarachchi, Thanuja, Cuenca, Pedro, García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, Mallikarachchi, Thanuja, and Cuenca, Pedro
- Abstract
The release of the latest video coding standard, known as Versatile Video Coding (VVC), has created the need to convert current High Efficiency Video Coding (HEVC) content to this new standard. However, the traditional cascade transcoding pipeline is not effective due to the exorbitant computational complexity of VVC. With this in mind, this paper proposes a fast HEVC-VVC transcoder that implements a probabilistic classifier based on Naïve-Bayes at the first partitioning level (128 × 128 pixels). This model uses features extracted from the 128 × 128 size blocks of the residual and reconstructed frames in the HEVC bitstream, and their correlation with the block partitioning structure. For the subsequent VVC coding depth levels, partitioning decisions are derived from the HEVC structure. The results achieve a 57.08% transcoding time reduction with a BD-rate penalty of 2.40%, compared with a traditional transcoding approach for the random access encoding configuration.
- Published
- 2021
46. Diseño de una interfaz para un sistema de gestión de tutorías
- Author
-
Díaz Honrubia, Antonio Jesús, Villanua De Juan, Jaime, Díaz Honrubia, Antonio Jesús, and Villanua De Juan, Jaime
- Abstract
El problema origen que ha dado lugar a este trabajo de fin de grado es la falta de organización a la hora de fijar tutorías entre el alumnado y cuerpo docente de la escuela, lo cual se traduce en la formación de colas y esperas innecesarias para los estudiantes debido a un retraso en el comienzo de una tutoría. Este proyecto fue iniciado por un alumno de la escuela. En este TFG, se ha desarrollado un sistema de gestión de tutorías y revisiones de prácticas y exámenes para que en el futuro este pueda ser usado por los profesores y estudiantes de la Escuela Técnica Superior de Ingenieros Informáticos de la UPM y por parte de otros centros. En lo que se refiere al Back-End de la plataforma, este hasta ahora presentaba imperfecciones, tal que la impresión de mensajes de error en la propia página web directamente, en lugar de hacerlo por consola, así como alguna que otra funcionalidad que no se había implementado a la perfección. Por esta razón, uno de los objetivos planteados para este trabajo ha sido arreglar dichas imperfecciones además de incorporar más funcionalidades en el sistema. En cuanto al Front-End del sistema de tutorías, cabe recalcar que este último tenía un aspecto muy rudimentario, por lo que este TFG pretende desarrollar una interfaz adecuada para la herramienta de forma que la vista de cada página sea clara, intuitiva y mucho más atractiva a la hora de utilizar la plataforma. Además de esto último, se corregirán las imperfecciones del diseño del BackEnd, así como los errores existentes para algunas funcionalidades ya diseñadas previamente para la plataforma. Para ello, en primer lugar, se ha optimizado la sincronización de la aplicación web con una agenda on-line. En este caso, la sincronización se llevó a cabo con Google Calendar mediante la API de Google Calendar. No obstante, no se visualizaban todas las próximas citas dado que no se almacenaban todos los eventos en la API. Por esta razón, por cuestiones de comodidad y para hacer el Front-End más at
- Published
- 2021
47. Aprendizaje y evaluación de un dataset para predecir áreas de interés en una secuencia de vídeo
- Author
-
Díaz Honrubia, Antonio Jesús, Blanco Álvarez, David, Díaz Honrubia, Antonio Jesús, and Blanco Álvarez, David
- Abstract
Hoy en día se genera una cantidad enorme de información audiovisual. Con la creciente popularización de las redes sociales como del incremento en la calidad de las películas, videojuegos y videos en general las exigencias ante una calidad cada vez mejor son también más. Ante la mejora de calidad los archivos audiovisuales cada vez son más pesados y por ende más costos de transmitir. El proyecto aborda la problemática del coste y el peso de las transmisiones de video y diseña una solución basada en minería de datos y machine learning. La meta es reducir el número de datos necesarios para representar la imagen digital y con ello reducir el tamaño y el ancho de banda necesaria para transmitir. Sin embargo, esto conlleva un empeoramiento de la calidad por ello se plantea su uso en aquellas zonas no importantes para el espectador. Por lo tanto, las zonas de poco o nulo interés tendrán una compresión más agresiva mientras que las de interés sea más suave o se mantenga. Se pretende crear un dataset para un futuro modelo basado en minería de datos y machine learning que prediga las áreas de interés. El reconocimiento de áreas de interés se hará gracias a unas gafas desarrolladas en un TFG anterior. Las gafas siguen los movimientos del ojo y donde están apuntando. Las gafas se demonian como ‘eye-tracker’.---ABSTRACT---Today an enormous amount of audiovisual information is generated. With the growing popularization of social networks and the increase in the quality of movies, video games, and videos in general, the demands for better quality are also more. Given the quality improvement, audiovisual files are becoming heavier and therefore more costly to transmit. The project addresses the problem of the cost and weight of video transmissions and designs a solution based on data mining and machine learning. The goal is to reduce the amount of data needed to represent the digital image and thereby reduce the size and bandwidth used to transmit. However, a deterioration in quali
- Published
- 2021
48. Video Compression for Screen Recorded Sequences Following Eye Movements
- Author
-
Serrano Carrasco, Diego Jesús, Díaz Honrubia, Antonio Jesús, Cuenca, Pedro, Serrano Carrasco, Diego Jesús, Díaz Honrubia, Antonio Jesús, and Cuenca, Pedro
- Abstract
With the advent of smartphones and tablets, video traffic on the Internet has increased enormously. With this in mind, in 2013 the High Efficiency Video Coding (HEVC) standard was released with the aim of reducing the bit rate (at the same quality) by 50% with respect to its predecessor. However, new contents with greater resolutions and requirements appear every day, making it necessary to further reduce the bit rate. Perceptual video coding has recently been recognized as a promising approach to achieving high-performance video compression and eye tracking data can be used to create and verify these models. In this paper, we present a new algorithm for the bit rate reduction of screen recorded sequences based on the visual perception of videos. An eye tracking system is used during the recording to locate the fixation point of the viewer. Then, the area around that point is encoded with the base quantization parameter (QP) value, which increases when moving away from it. The results show that up to 31.3% of the bit rate may be saved when compared with the original HEVC-encoded sequence, without a significant impact on the perceived quality.
- Published
- 2021
49. A COMPETITION TO STRENGTHEN THE LEARNING OF THE SQL PROGRAMMING LANGUAGE
- Author
-
Díaz-Honrubia, Antonio Jesús, primary, Rodríguez-González, Alejandro, additional, Menasalvas-Ruiz, Ernestina, additional, Megual-Galán, Luis, additional, and Fernández-Baizán, Covadonga, additional
- Published
- 2021
- Full Text
- View/download PDF
50. Accelerating the CU partitioning decision in an HEVC-JEM transcoder
- Author
-
García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, Cuenca, Pedro, García Lucas, David, Cebrián Márquez, Gabriel, Díaz Honrubia, Antonio Jesús, and Cuenca, Pedro
- Abstract
High Efficiency Video Coding (HEVC) is currently the latest video coding standard available on the market, and it is able to offer up to twice the coding efficiency, in the range of 50% bitrate reduction for the same video quality, of the previous standard, namely H.264/Advanced Video Coding (AVC). HEVC was standardized in 2013 for videos up to a resolution of 2K. However, the popularity of 4K videos is increasing due to the growing use of video-on-demand platforms. Therefore, the ITU-T Video Coding Expert Group (VCEG) and the ISO/IEC Moving Picture Expert Group (MPEG) created the Joint Video Exploration Team (JVET) in 2015 to design the future video coding technology under the Joint Exploration Model (JEM), which its latest version achieves an improvement in coding efficiency of 30%, but at a high cost in terms of computational complexity (10×) with respect to HEVC. The new video standard is expected to be ready in 2020, so it is necessary to find efficient mechanisms to convert current content to the new format adopted in JEM. In this regard, our proposal consists in a probabilistic classifier based on Naïve-Bayes that enables the prediction of the splitting decision at the first quadtree level in JEM, reducing the computational complexity of the transcoding process from HEVC to this new standard. The experimental results show a good trade-off between coding efficiency and complexity compared with the anchor transcoder, obtaining a time reduction up to 12.71% at the expense of low coding efficiency penalties in the configurations evaluated.
- Published
- 2020
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.