820 results on '"García Villalba, Luis Javier"'
Search Results
2. Agency Theory: Designing Optimal Incentives in the Insurance Sector
- Author
-
Turrado García, Fernando, Sandoval Orozco, Ana Lucila, García Pineda, Pilar, García Villalba, Luis Javier, Xhafa, Fatos, Series Editor, Hassanien, Aboul Ella, editor, Snášel, Václav, editor, Tang, Mincong, editor, Sung, Tien-Wen, editor, and Chang, Kuo-Chi, editor
- Published
- 2023
- Full Text
- View/download PDF
3. Mapping of data breaches in companies listed on the NYSE and NASDAQ: Insights and implications
- Author
-
Pimenta Rodrigues, Gabriel Arquelau, Marques Serrano, André Luiz, de Oliveira Albuquerque, Robson, Mayumi Saiki, Gabriela, Santedicola Ribeiro, Sara, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2024
- Full Text
- View/download PDF
4. StringENT test suite: ENT battery revisited for efficient P value computation
- Author
-
Almaraz Luengo, Elena, Alaña Olivares, Bittor, García Villalba, Luis Javier, Hernandez-Castro, Julio, and Hurley-Smith, Darren
- Published
- 2023
- Full Text
- View/download PDF
5. A multi-channel approach for detecting tampering in colour filter images
- Author
-
González Fernández, Edgar, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2023
- Full Text
- View/download PDF
6. Agency theory: Forecasting agent remuneration at insurance companies
- Author
-
Turrado García, Fernando, Sandoval Orozco, Ana Lucila, García Pineda, M. Pilar, and García Villalba, Luis Javier
- Published
- 2023
- Full Text
- View/download PDF
7. Sensitivity and uniformity in statistical randomness tests
- Author
-
Almaraz Luengo, Elena, Leiva Cerna, Marcos, García Villalba, Luis Javier, Hurley-Smith, Darren, and Hernandez-Castro, Julio
- Published
- 2022
- Full Text
- View/download PDF
8. Agency Theory: Designing Optimal Incentives in the Insurance Sector
- Author
-
Turrado García, Fernando, primary, Sandoval Orozco, Ana Lucila, additional, García Pineda, Pilar, additional, and García Villalba, Luis Javier, additional
- Published
- 2022
- Full Text
- View/download PDF
9. A new approach to analyze the independence of statistical tests of randomness
- Author
-
Almaraz Luengo, Elena, Leiva Cerna, Marcos Brian, García Villalba, Luis Javier, and Hernandez-Castro, Julio
- Published
- 2022
- Full Text
- View/download PDF
10. A Microsimulation Model for Sustainability and Detailed Adequacy Analysis of the Retirement Pension System.
- Author
-
Villanueva-García, Jaime, Moral-Arce, Ignacio, and García Villalba, Luis Javier
- Subjects
PENSION reform ,SOCIAL security ,GROSS domestic product ,GOVERNMENT policy ,PRODUCTIVE life span - Abstract
The sustainability and adequacy of pension systems are central to public policy debates in aging societies. This paper introduces a novel microsimulation model with probabilistic behavior to assess these dual challenges in the Spanish pension system. The model employs a mixed-projection method, integrating a macro approach—using economic and demographic aggregates from official sources such as the Spanish Statistics Office (INE) and Eurostat—with a micro approach based on the Continuous Sample of Working Lives (MCVL) dataset from Spanish Social Security. This framework enables individual-level projections of key labor market variables, including work time, salary, and initial pensions, under diverse reform scenarios. The results demonstrate the model's ability to predict initial pensions with high accuracy, providing detailed insights into adequacy by age, gender, and income levels, as well as distributional measures such as density functions and quantiles. Sustainability findings indicate that pension expenditures are projected to stabilize at 13.9% of Gross Domestic Product (GDP) by 2050. The proposed model provides a robust and versatile tool for policymakers, offering a comprehensive evaluation of the long-term impacts of pension reforms on both system sustainability and individual adequacy. [ABSTRACT FROM AUTHOR]
- Published
- 2025
- Full Text
- View/download PDF
11. Question–Answer Methodology for Vulnerable Source Code Review via Prototype-Based Model-Agnostic Meta-Learning.
- Author
-
Corona-Fraga, Pablo, Hernandez-Suarez, Aldo, Sanchez-Perez, Gabriel, Toscano-Medina, Linda Karina, Perez-Meana, Hector, Portillo-Portillo, Jose, Olivares-Mercado, Jesus, and García Villalba, Luis Javier
- Subjects
LANGUAGE models ,PROGRAMMING languages ,SOURCE code ,COMPUTER software security ,KNOWLEDGE transfer - Abstract
In cybersecurity, identifying and addressing vulnerabilities in source code is essential for maintaining secure IT environments. Traditional static and dynamic analysis techniques, although widely used, often exhibit high false-positive rates, elevated costs, and limited interpretability. Machine Learning (ML)-based approaches aim to overcome these limitations but encounter challenges related to scalability and adaptability due to their reliance on large labeled datasets and their limited alignment with the requirements of secure development teams. These factors hinder their ability to adapt to rapidly evolving software environments. This study proposes an approach that integrates Prototype-Based Model-Agnostic Meta-Learning(Proto-MAML) with a Question-Answer (QA) framework that leverages the Bidirectional Encoder Representations from Transformers (BERT) model. By employing Few-Shot Learning (FSL), Proto-MAML identifies and mitigates vulnerabilities with minimal data requirements, aligning with the principles of the Secure Development Lifecycle (SDLC) and Development, Security, and Operations (DevSecOps). The QA framework allows developers to query vulnerabilities and receive precise, actionable insights, enhancing its applicability in dynamic environments that require frequent updates and real-time analysis. The model outputs are interpretable, promoting greater transparency in code review processes and enabling efficient resolution of emerging vulnerabilities. Proto-MAML demonstrates strong performance across multiple programming languages, achieving an average precision of 98.49 % , recall of 98.54 % , F1-score of 98.78 % , and exact match rate of 98.78 % in PHP, Java, C, and C++. [ABSTRACT FROM AUTHOR]
- Published
- 2025
- Full Text
- View/download PDF
12. Analysis of Autonomous Penetration Testing Through Reinforcement Learning and Recommender Systems.
- Author
-
Moreno, Ariadna Claudia, Hernandez-Suarez, Aldo, Sanchez-Perez, Gabriel, Toscano-Medina, Linda Karina, Perez-Meana, Hector, Portillo-Portillo, Jose, Olivares-Mercado, Jesus, and García Villalba, Luis Javier
- Subjects
PENETRATION testing (Computer security) ,INFORMATION technology ,REINFORCEMENT learning ,OFFENSIVE behavior ,TEST systems - Abstract
Conducting penetration testing (pentesting) in cybersecurity is a crucial turning point for identifying vulnerabilities within the framework of Information Technology (IT), where real malicious offensive behavior is simulated to identify potential weaknesses and strengthen preventive controls. Given the complexity of the tests, time constraints, and the specialized level of expertise required for pentesting, analysis and exploitation tools are commonly used. Although useful, these tools often introduce uncertainty in findings, resulting in high rates of false positives. To enhance the effectiveness of these tests, Machine Learning (ML) has been integrated, showing significant potential for identifying anomalies across various security areas through detailed detection of underlying malicious patterns. However, pentesting environments are unpredictable and intricate, requiring analysts to make extensive efforts to understand, explore, and exploit them. This study considers these challenges, proposing a recommendation system based on a context-rich, vocabulary-aware transformer capable of processing questions related to the target environment and offering responses based on necessary pentest batteries evaluated by a Reinforcement Learning (RL) estimator. This RL component assesses optimal attack strategies based on previously learned data and dynamically explores additional attack vectors. The system achieved an F1 score and an Exact Match rate over 97.0 %, demonstrating its accuracy and effectiveness in selecting relevant pentesting strategies. [ABSTRACT FROM AUTHOR]
- Published
- 2025
- Full Text
- View/download PDF
13. A survey of artificial intelligence strategies for automatic detection of sexually explicit videos
- Author
-
Cifuentes, Jenny, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2022
- Full Text
- View/download PDF
14. IoT-based security service for the documentary chain of custody
- Author
-
da Silva, Daniel Alves, de Sousa, Rafael Timóteo, Jr., de Oliveira Albuquerque, Robson, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2021
- Full Text
- View/download PDF
15. Adversarial attacks on a lexical sentiment analysis classifier
- Author
-
de Oliveira, Gildásio Antonio, Júnior, de Sousa, Rafael Timóteo, Jr., de Oliveira Albuquerque, Robson, and García Villalba, Luis Javier
- Published
- 2021
- Full Text
- View/download PDF
16. Compression effects and scene details on the source camera identification of digital videos
- Author
-
Ramos López, Raquel, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2021
- Full Text
- View/download PDF
17. A security framework for Ethereum smart contracts
- Author
-
López Vivar, Antonio, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2021
- Full Text
- View/download PDF
18. Threading Statistical Disclosure Attack with EM: An Algorithm for Revealing Identity in Anonymous Communication Networks.
- Author
-
Silva-Trujillo, Alejandra Guadalupe, Briceño, Luis Yozil Zamarrón, Cuevas-Tello, Juan Carlos, Arjona-Villicaña, Pedro David, and García Villalba, Luis Javier
- Subjects
EXPECTATION-maximization algorithms ,TELECOMMUNICATION systems ,COMMUNICATION patterns ,SOCIAL networks ,DATA transmission systems - Abstract
Messages sent across multiple platforms can be correlated to infer users' attitudes, behaviors, preferences, lifestyles, and more. Therefore, research on anonymous communication systems has intensified in the last few years. This research introduces a new algorithm, Threading Statistical Disclosure Attack with EM (TSDA-EM), that employs real-world data to reveal communication's behavior in an anonymous social network. In this study, we utilize a network constructed from email exchanges to represent interactions between individuals within an institution. The proposed algorithm is capable of identifying communication patterns within a mixed network, even under the observation of a global passive attacker. By employing multi-threading, this implementation reduced the average execution time by a factor of five when using a dataset with a large number of participants. Additionally, it has markedly improved classification accuracy, detecting more than 79% of users' communications in large networks and more than 95% in small ones. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
19. A Secure Approach Out-of-Band for e-Bank with Visual Two-Factor Authorization Protocol.
- Author
-
de Melo, Laerte Peotta, Macedo Amaral, Dino, de Oliveira Albuquerque, Robson, de Sousa Júnior, Rafael Timóteo, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Subjects
COMPUTER fraud ,INTERNET fraud ,CYBERTERRORISM ,ONLINE banking ,TWO-dimensional bar codes ,MULTI-factor authentication - Abstract
The article presents an innovative approach for secure authentication in internet banking transactions, utilizing an Out-of-Band visual two-factor authorization protocol. With the increasing rise of cyber attacks and fraud, new security models are needed that ensure the integrity, authenticity, and confidentiality of financial transactions. The identified gap lies in the inability of traditional authentication methods, such as TANs and tokens, to provide security in untrusted terminals. The proposed solution is the Dynamic Authorization Protocol (DAP), which uses mobile devices to validate transactions through visual codes, such as QR codes. Each transaction is assigned a unique associated code, and the challenge must be responded to within 120 s. The customer initiates the transaction on a computer and independently validates it on their mobile device using an out-of-band channel to prevent attacks such as phishing and man-in-the-middle. The methodology involves implementing a prototype in Java ME for Android devices and a Java application server, creating a practical, low-computational-cost system, accessible for use across different operating systems and devices. The protocol was tested in real-world scenarios, focusing on ensuring transaction integrity and authenticity. The results show a successful implementation at Banco do Brasil, with 3.6 million active users, demonstrating the efficiency of the model over 12 years of use without significant vulnerabilities. The DAP protocol provides a robust and effective solution for securing banking transactions and can be extended to other authentication environments, such as payment terminals and point of sale devices. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
20. Ontology Development for Asset Concealment Investigation: A Methodological Approach and Case Study in Asset Recovery.
- Author
-
Sousa Torres, José Alberto, da Silva, Daniel Alves, Albuquerque, Robson de Oliveira, Nze, Georges Daniel Amvame, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Subjects
FRAUD ,DATA integration ,PERSONALLY identifiable information ,FEDERAL government ,ONTOLOGY - Abstract
The concealment of assets is a critical challenge in financial fraud and asset recovery investigations, posing significant obstacles for creditors and regulatory authorities. National governments commonly possess the necessary data for detecting and combating this type of fraud, typically related to personal data and asset ownership. However, this information is often dispersed across different departments within the same government and sometimes in databases shared by other countries. This leads to difficulty semantically integrating this large amount of data in various formats and correlating entities through identifying hidden relationships, which are essential in this type of analysis. In this regard, this work proposes an ontology to support the data integration process in the domain of asset concealment and recovery and fill the gap in the existence of a public ontology for this domain. The applicability of this ontology in the context of integration between data from different departments and countries was validated. The use of the ontology in a pilot project in the context of a tool for investigating this type of fraud was conducted with a Brazilian government agency, and the users validated its applicability. Finally, a new method for constructing ontologies is proposed. The proposed process was evaluated during the asset concealment ontology building and proved to be more suitable than the similar processes analyzed concerning the partial reuse of existing ontologies and the construction of ontologies for data with a transnational scope. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
21. A machine learning forensics technique to detect post-processing in digital videos
- Author
-
Sandoval Orozco, Ana Lucila, Quinto Huamán, Carlos, Povedano Álvarez, Daniel, and García Villalba, Luis Javier
- Published
- 2020
- Full Text
- View/download PDF
22. Authentication and integrity of smartphone videos through multimedia container structure analysis
- Author
-
Quinto Huamán, Carlos, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2020
- Full Text
- View/download PDF
23. Image tampering detection by estimating interpolation patterns
- Author
-
Armas Vega, Esteban Alejandro, González Fernández, Edgar, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2020
- Full Text
- View/download PDF
24. Bootstrap Method of Eco-Efficiency in the Brazilian Agricultural Industry
- Author
-
Marques Serrano, André Luiz, primary, Saiki, Gabriela Mayumi, additional, Rosano-Penã, Carlos, additional, Rodrigues, Gabriel Arquelau Pimenta, additional, Albuquerque, Robson de Oliveira, additional, and García Villalba, Luis Javier, additional
- Published
- 2024
- Full Text
- View/download PDF
25. Copy-move forgery detection technique based on discrete cosine transform blocks features
- Author
-
Armas Vega, Esteban Alejandro, González Fernández, Edgar, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Published
- 2021
- Full Text
- View/download PDF
26. Herramienta para la identificación de personas mediante el uso de redes neuronales convolucionales
- Author
-
García Villalba, Luis Javier, Martínez Hernández, Luis Alberto, Canive Huguet, Oscar, García Villalba, Luis Javier, Martínez Hernández, Luis Alberto, and Canive Huguet, Oscar
- Abstract
Este proyecto explora el desarrollo de un modelo de red neuronal capaz de reconocer individuos basándose en su voz en grabaciones de audio. El objetivo es mejorar los sistemas de reconocimiento de personas enfocándose únicamente en el audio, aprovechando técnicas avanzadas de aprendizaje profundo y redes neuronales convolucionales (CNN) preentrenadas. A lo largo del proyecto, se exploraron diversos enfoques, incluyendo el uso de espectrogramas de Mel y MFCCs para convertir las se˜nales de audio en datos visuales que pudieran ser procesados eficazmente por las CNNs. El uso de redes preentrenadas, como VGG16, aceleró significativamente el proceso de desarrollo y mejoró la precisión del modelo. El proyecto también implicó una extensa experimentación con configuraciones de red y ajuste de hiperparámetros para optimizar el rendimiento. Los resultados destacan el potencial de las redes neuronales en tareas de identificación basadas en audio, ofreciendo valiosos conocimientos para futuros avances en el campo del reconocimiento de hablantes y el análisis forense., This project explores the development of a neural network model capable of recognizing individuals based on their voice in audio recordings. The aim is to enhance person recognition systems by focusing solely on audio, leveraging advanced deep learning techniques and pretrained convolutional neural networks (CNNs). Throughout the project, various approaches were explored, including the use of Mel spectrograms and MFCCs to convert audio signals into visual data that could be effectively processed by CNNs. The use of pretrained networks, such as VGG16, significantly accelerated the development process and improved the model’s accuracy. The project also involved extensive experimentation with network configurations and hyperparameter tuning to optimize performance. The results highlight the potential of neural networks in audio-based identification tasks, offering valuable insights for future advancements in the field of speaker recognition and forensic analysis.
- Published
- 2024
27. Detección de manipulaciones Copy-Move y Splicing en audio usando técnicas de Aprendizaje Profundo
- Author
-
García Villalba, Luis Javier, Povedano Álvarez, Daniel, Ruiz Heredia, José Antonio, Martín Gómez, Néstor Antonio, García Villalba, Luis Javier, Povedano Álvarez, Daniel, Ruiz Heredia, José Antonio, and Martín Gómez, Néstor Antonio
- Abstract
En la actualidad, con el desarrollo tecnológico de los últimos años y el creciente uso de la redes sociales, es cada vez más frecuente la existencia de falsificaciones de archivos multimedia que se comparten y circulan en nuestro entorno. Además, debido a la sofisticación de las metodologías empleadas, cada vez es más difícil detectar las irregularidades en estos archivos. En este trabajo se propone una solución para la detección de estas manipulaciones, en concreto centrándonos en archivos de audio. Para ello seguimos el enfoque de los algoritmos de aprendizaje profundo, presentados como la mejor solución de entre los métodos de inteligencia artificial existentes. Para este estudio se realiza una conversión de las muestras originales y modificadas en imágenes denominadas espectrogramas. Esta conversión se desarrolla con el objetivo de realizar un preprocesamiento para la correcta extracción de características y aprendizaje del modelo. La arquitectura del mismo, representada como una red neuronal, es capaz de identificar estas muestras etiquetadas en un proceso de entrenamiento y validación. Estos modelos se caracterizan por su robustez y escalabilidad, lo que permite la inclusión de varias categorías de alteración de muestras al estudio. Concretamente, este trabajo presenta una clasificación en tres categorías distintas. Los experimentos demuestran que este tipo de análisis tiene resultados excelentes con algoritmos de aprendizaje automático y que, por lo tanto, suponen un enfoque eficiente., In recent years, the technological improvement and the growing use of social media has taken part in the proliferation of numerous counterfeit multimedia content in our environement. Moreover, due to the sophistication of the methodologies employed, it has progressively become more difficult to detect the irregularities in these files. This work proposes a solution for the detection of these manipulations, specifically focusing on audio files. To achieve this, we follow the approach of deep learning algorithms, presented as the best solution among the existing artificial intelligence methods. For this study, we performed a conversion of the original and modified samples into images called spectrograms. This conversion is carried out in order to perform a preprocessing phase of the samples and, then, satisfy the correct feature extraction and learning process by the model. The architecture of the model, represented as a neural network, is capable of identifying these labeled samples in a training and validation process. These models are characterized by their robustness and scalability, which allows the inclusion of various categories of forgeries in the study. Concretely, this work presents a classification into three different categories. The experiments illustrates that this type of analysis has achieved excellent results with machine learning algorithms and, therefore, represents an efficient approach.
- Published
- 2024
28. Detección de desbordamiento de Buffer e Inyección SQL mediante modelos basados en LSTM
- Author
-
García Villalba, Luis Javier, Martínez Hernández, Luis Alberto (Codirector), Sun, Jing, Qiu Zhao, Yingting, García Villalba, Luis Javier, Martínez Hernández, Luis Alberto (Codirector), Sun, Jing, and Qiu Zhao, Yingting
- Abstract
A medida que la tecnología avanza y los sistemas se interconectan, el rol que desempeña la seguridad de la información adquiere cada vez más una relevancia creciente. La prevención de vulnerabilidades en el software constituye una preocupación de vital importancia en las empresas y grandes organizaciones. Esto ha generado una creciente demanda de sistemas informáticos robustos y seguros. Ante esta situación, la identificación temprana de las debilidades en software constituye un paso fundamental para asegurar los niveles de seguridad de los sistemas y protección de los datos ante posibles brechas de seguridad. En este contexto, nuestro trabajo de fin de grado está enfocado en la exploración de las posibilidades de aplicar la inteligencia artificial para la identificación de vulnerabilidades en software. La inteligencia artificial es una área bastante apropiada para ayudar en la detección de vulnerabilidades debido a su habilidad para procesar enormes cantidades de datos de manera eficiente y extraer patrones complejos. En el enfoque de este trabajo, se ha decidido usar una Red Neuronal Recurrente compuesto por capas de células de Memoria a Largo y Corto Plazo a causa de su fuerte capacidad para comprender el contexto del código fuente. Por otra parte, se ha limitado la investigación a la detección de las principales vulnerabilidades más frecuentes en la actualidad, desbordamiento de búfer e inyección SQL. Para llevar a cabo el entrenamiento de la red, se ha recolectado un conjunto de datos sobre códigos escritos en C y en SQL que poseen vulnerabilidades de desbordamiento de búfer e inyección SQL respectivamente. Estos datos han sido procesados, limpiados y normalizados para el posterior entrenamiento y testeo del modelo., As technology advances and systems become more interconnected, the role of information security is increasingly relevant. Preventing vulnerabilities in software is a matter of vital importance for companies and large organizations. This has led to a growing demand for robust and secure computer systems. Therefore, early identification of software weaknesses is essential to ensure system security standards and data protection against potential security breaches. In this context, our undergraduate thesis focuses on exploring the possibilities of applying artificial intelligence to identify software vulnerabilities. Artificial intelligence is a highly suitable area to assist in vulnerability detection due to its ability to efficiently process large amounts of data and extract complex patterns. In the approach of this work, we have chosen to use a Recurrent Neural Network composed of layers of Long Short-Term Memory cells due to its strong ability to understand the context of the source code. Additionally, the research has been limited to detecting one of the most common vulnerabilities today, buffer overflow. To train the network, we collected a dataset of C and SQL codes that possess buffer overflow and SQL injection vulnerabilities, respectively. These data have been processed, cleaned, and normalized for subsequent training and testing of the model.
- Published
- 2024
29. Algoritmo de Estimación del Nivel de Confianza en Servicios 6G
- Author
-
García Villalba, Luis Javier, Alonso López, Jesús Ángel, García Peña, Jesús, Otegui Marín, José, García Villalba, Luis Javier, Alonso López, Jesús Ángel, García Peña, Jesús, and Otegui Marín, José
- Abstract
A medida que la tecnología 5G se expande globalmente, se han identificado desafíos relacionados con la seguridad de la información y la estabilidad de la red, especialmente en entornos donde la integridad de los datos es crítica. En respuesta a estos desafíos, la investigación propuesta se centra en explorar y mejorar las redes 6G para superar las limitaciones de las tecnologías 5G en términos de confiabilidad y seguridad. Este trabajo parte de la premisa de estimar el nivel de confianza de un servicio E2E de las futuras redes 6G, con el propósito de mejorar la confianza de la red. Para lograrlo, se emplea un enfoque de dos partes. La primera consiste en el estudio e implementación de un algoritmo con lógica difusa que genere un valor representativo del nivel de confianza. Este modelo de lógica difusa permite una evaluación más dinámica y adaptable de la confianza en la red, basado en métricas del servicio y condiciones en tiempo real. La segunda parte se centra en la investigación e implementación de contratos inteligentes en Ethereum, empleando estos como sistema de almacenamiento persistente y descentralizado para los resultados del algoritmo. La integración de la blockchain proporciona una solución robusta para la gestión de los resultados, aprovechando su capacidad de ofrecer trazabilidad completa y resistencia a manipulaciones. La implementación de este software de estimación de confianza se ha realizado mediante una gestión por tareas que simula tanto eventos críticos como evaluaciones periódicas de los servicios de la red. El algoritmo propuesto recopila las métricas del servicio 6G a través de las tareas y las evalúa para generar un nivel de confianza utilizando lógica difusa. El resultado de esta estimación se almacena tanto en un contrato inteligente como en una base de datos NoSQL. Los resultados del algoritmo indican una aproximación factible al nivel de confianza del servicio que podría suponer una mejora en la confiabilidad y seguridad de las comunica
- Published
- 2024
30. Detección e identificación de manipulaciones intra-fotogramas en videos utilizando aprendizaje profundo
- Author
-
García Villalba, Luis Javier, Povedano Álvarez, Daniel, Sánchez Sonseca, Daniel, Salgueiro Castelo, Alonso, García Villalba, Luis Javier, Povedano Álvarez, Daniel, Sánchez Sonseca, Daniel, and Salgueiro Castelo, Alonso
- Abstract
En las dos últimas décadas la creación de material audiovisual como videos o imágenes ha tenido un gran crecimiento gracias al abaratamiento de las cámaras y, sobre todo, los teléfonos móviles. Esto junto con la multitud de aplicaciones destinadas a la edición de estos contenidos han supuesto una proliferación de archivos multimedia editados. Ante esto, para poder protegerse de ediciones malintencionadas o fraudulentas cada vez es más necesario un método para verificar la autenticidad de los videos e imágenes colgados en las redes sociales, medios de comunicación, Internet y demás. En este trabajo, se plantea la utilización de diversas técnicas de aprendizaje profundo con el objetivo de evaluar su robustez en la detección e identificación de manipulaciones espaciales en videos, concretamente copy-move y splicing. Para ello, se realizan dos propuestas basadas en el ruido y la arquitectura ConvNeXt. En la primera, el modelo es entrenado con fotogramas de videos, mientras que en la segunda el modelo es entrenado con imágenes. Además, en esta última se añade respecto a la primera la extracción del ruido "al vuelo" el aumento de datos. Se hacen numerosos experimentos sobre ambas propuestas y se analizan los resultados obtenidos de cada una de ellas. En cuanto a la primera propuesta no se han obtenido buenos resultados y, aunque la segunda propuesta ha conseguido superarlos, los resultados son aceptables pero mejorables. A lo largo del trabajo se ha conseguido un modelo con un buen desempeño sobre imágenes, se ha demostrado la necesidad de un conjunto de datos de videos grande y con variabilidad para modelos de aprendizaje profundo y se ha destacado la importancia del aumento de datos en modelos entrenados con imágenes a la hora de predecir sobre videos., Over the past two decades, the creation of audiovisual material such as videos or images has seen remendous growth thanks to the affordability of cameras, especially smartphones. This, coupled with the multitude of aplications dedicated to editing these contents, has led to a proliferation of edited multimedia files. In light of this, to protect against malicious or fraudulent edits, there’s an increasing need for a method to verify the authenticity of videos and images posted on social media, news outlets, the internet, and beyond.In this work, various deep learning techniques are proposed to evaluate their robustness in the detection and identification of spatial manipulations in videos, specifically copy-move and splicing. For this purpose, two approaches based on noise and the ConvNeXt architecture are proposed. In the first approach, the model is trained with video frames, while in the second approach, the model is trained with images. Additionally, in the latter, noise extraction on-the-fly and data augmentation are included compared to the former. Numerous experiments are conducted on both proposals, and the results obtained from each are analyzed. Regarding the first approach, good results were not obtained, and although the second approach has managed to surpass them, the results are aceptable but improvable. Throughout the work, a model with good performance on images has been achieved, the need for a large and diverse video dataset for deep learning models has been demonstrated, and the importance of data augmentation in models trained with images when making predictions on videos has been highlighted.
- Published
- 2024
31. Detección de contenido sensible en audio usando técnicas de Aprendizaje Profundo
- Author
-
García Villalba, Luis Javier, Povedano Álvarez, Daniel, Forriol Molina, Carlos, García Villalba, Luis Javier, Povedano Álvarez, Daniel, and Forriol Molina, Carlos
- Abstract
Actualmente, ha aumentado la creación y el consumo de contenido en internet, lo que ha facilitado la difusión de material ilegal como la pornografía infantil. Un desafío importante en la lucha contra este problema es que los vídeos subidos a internet no siempre muestran desnudez explícita, lo que dificulta su detección mediante métodos convencionales como el análisis de imágenes. El audio, a menudo pasado por alto, puede contener características que otros modelos no pueden detectar. Este trabajo trata de desarrollar una tecnología capaz de identificar y clasificar este tipo de contenido a través del análisis de audio. La principal motivación es proporcionar herramientas más efectivas para combatir la difusión de estos materiales. El estudio se centra en la implementación de tecnologías para detectar contenido sensible en audio. Se desarrollaron y evaluaron modelos basados en aprendizaje profundo para analizar fragmentos de audio de vídeos. A pesar de los resultados positivos, el modelo presenta limitaciones como la mala clasificación de sonidos de agua y la dependencia de la calidad del audio. Se alcanza una precisión superior al 90 %, pero siempre hay margen de mejora. El trabajo futuro sugiere un análisis detallado de los fallos del modelo, la incorporación de la temporalidad en el análisis de secuencias, y la experimentación con tecnologías más avanzadas. También se propone mejorar el conjunto de datos para aumentar la robustez del modelo., Currently, the creation and consumption of content on the internet have increased, facilitating the spread of illegal material such as child pornography. An important challenge in combating this issue is that videos uploaded to the internet do not always show explicit nudity, making them difficult to detect using conventional methods like image analysis. Audio, often overlooked, can contain features that other models cannot detect. This work aims to develop a technology capable of identifying and classifying this type of content through audio analysis. The main motivation is to provide more effective tools to combat the spread of these materials. The study focuses on the implementation of technologies to detect sensitive content in audio. Deep learning-based models were developed and evaluated to analyze audio fragments from videos. Despite the positive results, the model presents limitations such as the misclassification of water sounds and dependency on audio quality. A precision of over 90 % is achieved, but there is always room for improvement. Future work suggests a detailed analysis of model failures, the incorporation of temporality in sequence analysis, and experimentation with more advanced technologies. It also proposes improving the dataset to increase the model’s robustness.
- Published
- 2024
32. Herramienta para la recolección y procesamiento automático de información para el análisis de la criminalidad
- Author
-
García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, Ibáñez Archilla, Jaime Millán, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and Ibáñez Archilla, Jaime Millán
- Abstract
El propósito de este trabajo es explorar la utilización de técnicas OSINT y web scraping para automatizar la adquisición y el análisis de información procedente de fuentes públicas. El objetivo principal es facilitar el reconocimiento temprano de actividades criminales o conductas delictivas en línea, aprovechando datos externos procedentes de informes policiales diarios. Previa a la recopilación de información, se inicia un subproceso a una hora predeterminada, configurado como una tarea cron en el servidor que aloja el servicio. Este proceso se encarga de extraer y sanitizar las entidades nombradas del texto utilizando NER de los datos de origen a un formato JSON. Para que el procedimiento sea exitoso, se utiliza una herramienta de Procesamiento del Lenguaje Natural NLP desarrollada por el Departamento de Software e Inteligencia Artificial de la Universidad Complutense de Madrid, que ha sido reentranada con un nuevo pipeline para detectar entidades específicas de interés. Posteriormente, la herramienta recopila la información relevante empleando técnicas OSINT integradas en un crawler, filtrando las partes relevantes en base a las entidades extraídas anteriormente mencionadas, asegurando al usuario el acceso a los datos procesados al utilizar la aplicación. El objetivo ´ultimo de esta investigación es el desarrollo de una aplicación web diseñada para agilizar la extracción y el procesamiento automatizados de datos, facilitando la recopilación manual de información de diversas Redes Sociales (RRSS), presentando posteriormente las pruebas en un formato accesible y coherente. Todo ello a través de la conexión a una Base de Datos (BD) en la que se almacenan las evidencias adquiridas y que permite el volcado al equipo local. Este doble enfoque no sólo mejora la eficacia de la vigilancia de posibles amenazas en línea, sino que también contribuye significativamente a la identificación preventiva de conductas delictivas y a la monitorización de determinados sujetos, aumen, This paper explores the application of Open-Source Intelligence (OSINT) techniques and web scraping to automate the acquisition and analysis of information from publicly available sources. The primary aim is to facilitate the early detection of criminal activities or misconduct online, leveraging external data sourced from daily police reports. Prior to the information gathering, a subprocess is initiated at a predetermined time, configured as a cron job on the server hosting the service. This process is responsible for extracting and sanitising the entities using Named Entity Recognition (NER) from the source data into a JavaScript Object Notation (JSON) format. This procedure’s success depends on the use of a Natural Language Processing (NLP) tool developed by the Software and Artificial Intelligence Department of the Universidad Complutense de Madrid, which has been retrained with a new pipeline to detect specific entities of interest. Subsequently, the tool collects relevant information employing OSINT techniques integrated in a crawler, filtering the relevant parts based on the aforementioned extracted entities, ensuring that the user has access to processed data upon utilising the application. The ultimate goal of this research is the development of a web application designed to streamline the automated extraction and processing of data. Furthermore, the application supports manual information gathering from various Social Media (SM) sites, subsequently presenting the evidences in an accessible and coherent format. All this is accomplished through the connection to a Database (DB) where the acquired evidences are stored and which allows them to be downloaded to the local computer. This dual approach not only enhances the efficiency of monitoring potential online threats but also contributes significantly to the preemptive identification of criminal conduct and the surveillance of specific individuals, thereby augmenting existing security measures and law enfor
- Published
- 2024
33. Detección de manipulaciones Inter-Fotogramas mediante técnicas de Aprendizaje Profundo
- Author
-
García Villalba, Luis Javier, Povedano Álvarez, Daniel, Fernández San Sotero, Héctor, García Villalba, Luis Javier, Povedano Álvarez, Daniel, and Fernández San Sotero, Héctor
- Abstract
Hoy en día, la sociedad tiende a capturar y compartir vídeos con mucha frecuencia, sobre todo con el despunte de las redes sociales y la facilidad que ´estas otorgan a la hora de transmitir cualquier tipo de información. No solo se cuenta con dicha comodidad a la hora de compartir, sino que, en la actualidad, con la evolución de los dispositivos, también se dispone de mucha sencillez a la hora de capturar cualquier momento, inclusive la disponibilidad de editar dichos vídeos. Es con esta situación, que ha medida que pasa el tiempo, resulta de mayor complejidad la detección de manipulaciones en este tipo de formato multimedia. Además existen varios tipos de manipulaciones para los vídeos, pero en este trabajo se propone un análisis espacio-temporal de los fotogramas que los componen para averiguar si realmente existe una manipulación temporal y poder clasificarla, dependiendo del tipo del que se trate. También, parte del objetivo se centra en comprobar si los resultados que se obtienen pueden ser comparables con otras herramientas/metodologías que compartan la misma finalidad. Para ello se extraerán los fotogramas de un conjunto de datos, formado por vídeos originales y algunos con ciertas manipulaciones, para realizar una serie de experimentos para poder realizar una clasificación de los vídeos. Obteniendo alrededor de un 96 % de exactitud a la hora de diferenciar los vídeos manipulados de los que son originales, un 92 % para detectar el tipo de manipulación temporal dentro del grupo de vídeos manipulados (sin vídeos originales) y un 77 % para la clasificación que detecta si el vídeo es original o tiene alguna manipulación (indicando a su vez el tipo de manipulación temporal que posee)., Nowadays, society has a tendency to capture and share videos very frequently, especially with the growth of social networks and the ease they provide when it comes to transmitting any type of information. Not only is there such convenience when sharing, but actually, with the evolution of devices, there is also a lot of facilities when it comes to capture any moment, including the opportunity to edit such videos. It is with this situation that, as time goes by, the detection of manipulations in this type of multimedia format becomes more complex. In addition, there are several types of manipulations for videos, but this research proposes an analysis of the spatio-temporality of the frames that compose them to find out if there is really a temporal manipulation and be able to classify it, depending on the type of manipulation. Also, part of the purpose is to check whether the results obtained can be compared with other tools/methodologies that share the same scope. For this purpose, frames will be extracted from a dataset, consisting of original videos and some with certain manipulations, to perform a series of experiments in order to classify the videos. Obtaining about 96 % accuracy in identifying the manipulated videos from those that are original, 92 % for detecting the type of temporal manipulation within the group of manipulated videos (without original videos) and 77 % for the classification that detects whether the video is original or has some manipulation (indicating in addition the type of temporal manipulation it has).
- Published
- 2024
34. App en iOS para la detección de contenido explícito en audio y texto
- Author
-
García Villalba, Luis Javier, Pérez Arteaga, Sandra, Ruiz Huguet, Edurne, Marco Simal, Laura, García Villalba, Luis Javier, Pérez Arteaga, Sandra, Ruiz Huguet, Edurne, and Marco Simal, Laura
- Abstract
El objetivo de este TFG es investigar, desarrollar e implementar un sistema basado en técnicas de Aprendizaje Profundo que sea capaz de detectar contenido explícito en archivos tanto de audio como de texto en dispositivos con Sistema Operativo iOS. Con el fin de alcanzar tal meta, se ha creado una aplicación móvil que posibilita grabar un audio, escribir manualmente un mensaje o cargar archivos de texto y audio. Luego, analiza dichos contenidos utilizando redes neuronales entrenadas con Python y Swift como lenguajes clave para su desarrollo. Este proceso se divide en dos etapas. En la primera, utilizamos técnicas de inteligencia artificial para convertir audio en texto utilizando el modelo de OpenAI Whisper. En la segunda etapa, empleamos un modelo entrenado que nos ayuda a determinar si el contenido es explícito o no. El detector ha sido desarrollado utilizando TensorFlow como la biblioteca principal. La combinación de TensorFlow para la clasificación y Whisper para la transcripción de audios nos brindarrá una solución completa., The aim of this TFG is to research, develop and implement a system based on Deep Learning techniques that is capable of detecting explicit content in both audio and text files on iOS devices. To do so, we have develop a mobile app that allows to record an audio, manually write a message or upload text and audio files. It then uses neural networks to analyze its content, with Python and Swift as the key languages for its development. This process is divided into two stages. Firstly, we use artificial intelligence techniques to convert speech to text using the OpenAI Whisper model. In the second stage, we use a trained model to help us determine whether the content is explicit or not. The detector has been developed using TensorFlow as the main library. The combination of TensorFlow for classification and Whisper for audio transcription will give us a complete solution.
- Published
- 2024
35. Extracción de relaciones basadas en entidades nombradas en español utilizando técnicas de procesamiento de lenguaje natural
- Author
-
García Villalba, Luis Javier, Martínez Hernández, Luis Alberto, Díaz Lupone, Mauro, Tafka Ghazal, Yasser, García Villalba, Luis Javier, Martínez Hernández, Luis Alberto, Díaz Lupone, Mauro, and Tafka Ghazal, Yasser
- Abstract
En el presente Trabajo de Fin de Grado (TFG) se lleva a cabo un estudio completo y profundo sobre distintos métodos, arquitecturas y modelos para la Extracción de Relaciones en entidades nombradas en textos en español. El objetivo principal de este proyecto es el desarrollo de un modelo para la ext a través del uso de las tecnologías más innovadoras en la actualidad, como es la arquitectura Transformer y los modelos derivados de BERT, y su respectiva unificación con un modelo de Reconocimiento de Entidades Nombradas para poder extraer información de textos en español de forma eficiente y eficaz. En el estudio, se profundiza en el campo del Procesamiento del Lenguaje Natural, en sus distintos y complejos algoritmos y arquitecturas derivantes del aprendizaje automático y en sus aplicaciones al área de investigación de la Extracción de Información. Se presenta además una gran investigación en los mejores modelos de lenguaje preentrenados en español como son RoBERTa o DistilBETO y algunos de los mayores dataset para la Extracción de Relaciones en español. Los resultados obtenidos reflejan la obtención de un modelo basado en la arquitectura Transformer, en particular el uso de RoBERTa, muy efectivo y que logra relacionar bien las entidades encontradas en textos en español. Esto se puede ver reflejado en las métricas presentadas en el trabajo. En conclusión, este trabajo presenta un estudio exhaustivo de los métodos para la Extracción de Relaciones y de la efectividad de los modelos derivados de BERT. Los resultados alcanzados demuestran el potencial y la eficiencia del modelo presentado, confirmando el valor de su uso para textos en español., In this Final Degree Project, we conduct a comprehensive and in-depth study of several methods, architectures, and models for Relation Extraction in recognized named entities in Spanish texts. The main objective of this project is to develop a model for Relation Extraction through the use of the most innovative technologies available today, such as the Transformer architecture and the models derived from BERT, along with their integration with a Named Entity Recognition model to extract information from Spanish texts efficiently and effectively. The study delves into the field of Natural Language Processing, exploring its several and complex algorithms and architectures derived from machine learning and its applications in the information extraction research domain. A thorough investigation is also presented on the best pre-trained language models in Spanish, such as RoBERTa and DistilBETO, and some of the largest datasets for Relation Extraction in Spanish. The results obtained reflect the development of a model based on the Transformer architecture, specifically the use of RoBERTa, which is highly effective in linking named entities found in Spanish texts. This effectiveness is reflected in the metrics presented in the paper. In conclusion, this work presents a thorough study of the methods for Relation Extraction and the effectiveness of models derived from BERT. The results achieved demonstrate the potential and efficiency of the proposed model, confirming its value for use in Spanish texts.
- Published
- 2024
36. Herramienta para la detección de contenido sexual en imágenes en dispositivos móviles iOS
- Author
-
García Villalba, Luis Javier, Ruano Crespo, Martín, Pérez Arteaga, Sandra, García Villalba, Luis Javier, Ruano Crespo, Martín, and Pérez Arteaga, Sandra
- Abstract
Este trabajo se enfoca en el diseño y optimización de un modelo de aprendizaje profundo para la detección de imágenes con contenido explicito, integrado en una aplicación para dispositivos IOS. Esto ha sido posible gracias al uso de técnicas innovadoras desarrolladas en los últimos años en el área de aprendizaje profundo, como EfficientNet. Este proyecto busca contribuir a la creación de una herramienta eficaz que ayude a que los menores disfruten de los móviles de forma segura. El trabajo recoge desde los más simples conceptos teóricos relacionados con los algoritmos de clasificación de imágenes, hasta la implementación práctica y evaluación del modelo propuesto, sin dejar de lado la explicación de arquitecturas y técnicas similares también utilizadas en el área. Los resultados nos muestran que el modelo propuesto ofrece una precisión elevada por lo que es viable para mejorar la seguridad en el uso de dispositivos móviles, en nuestro caso Iphones, para menores y proponiendo líneas futuras de investigación para la continua mejora del control parental.
- Published
- 2024
37. Análisis de Técnicas de Detección de Imágenes Sintéticas
- Author
-
García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, Cabañas González, Daniel, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and Cabañas González, Daniel
- Abstract
This research addresses the study and analysis of the current state of detectors for synthetic images generated by diffusion models. Through a methodology that includes the study of previous generative models and the application of advanced detection techniques such as binary classifiers and frequency spectrum analysis, this work explores the efficacy of current methods and their applicability to diffusion models. The results reveal that, although the classifiers are effective within the datasets with which they were trained, they face significant limitations in generalizing to new models, highlighting the need for more robust and generalizable tools. The conclusions emphasize the urgency of continuing research in this field, given the serious implications of deepfakes and unregulated synthetic content. This study not only validates the possibility of adapting existing techniques to new generative models but also provides a starting point for the development of practical solutions in the fight against cybercrime, specifically in the detection and prevention of illegal and harmful content. The tools developed from this research could be essential for security forces and other entities dedicated to combating the pernicious effects of deepfake technology.
- Published
- 2024
38. Recursos educativos basados en competencias digitales para los contenidos docentes de Matemáticas Empresariales en el grado de Finanzas, Banca y Seguros (FBS) en la UCM
- Author
-
García Pineda, M. Pilar, Almaraz Luengo, Elena Salome, Alonso López, Jesús Angel, Blanco García, Susana, de Frutos Espinosa, María Cristina, García Villalba, Luis Javier, Martínez Hernandez, Luis Alberto, Pérez Arteaga, Sandra, Portela García-Miguel, Javier, Povedano Álvarez, Daniel, Rodríguez Palanquex, María Cruz, Sandoval Orozco, Ana Lucila, Rebollo Castillo, Francisco Javier, Orozco Narváez, Sara Vanesa, Turrado García, Fernando, García Pineda, M. Pilar, Almaraz Luengo, Elena Salome, Alonso López, Jesús Angel, Blanco García, Susana, de Frutos Espinosa, María Cristina, García Villalba, Luis Javier, Martínez Hernandez, Luis Alberto, Pérez Arteaga, Sandra, Portela García-Miguel, Javier, Povedano Álvarez, Daniel, Rodríguez Palanquex, María Cruz, Sandoval Orozco, Ana Lucila, Rebollo Castillo, Francisco Javier, Orozco Narváez, Sara Vanesa, and Turrado García, Fernando
- Abstract
La importancia de la formación del docente a nivel educativo digital obliga a una revisión continua de los contenidos docentes. Para ello, se pretende revisar el programa de Matemáticas Empresariales en FBS y proponer recursos educativos digitales
- Published
- 2024
39. Optimización de la gestión de objetivos comerciales en el sector asegurador
- Author
-
García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, Turrado García, Fernando, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and Turrado García, Fernando
- Abstract
The problem known as agency theory, or the agent-principal problem, is a problem widely known and studied from an economic perspective in which it is studied how an entity called principal delegates part of its activity to another entity known as an agent in exchange for pre-established financial compensation. Thus, in this context, a conflict of interes naaturally arises between the principal's own interests and those of the agent, since the agent is autonomous in his decision-making and the principal can only influence these decisions through the contract that regulates their relationship.The design of the remuneration mechnisms (commissions and incentives), a fundamental part of the contract between both entities, is carried out under quite complex conditions that make the work of the principal difficult when designing it: there is asymmetry in the information since the principal does not knows the internal strategy of the agent or the effort (amount of work that is capable of developing) and the utility of some actions is not known in the short term or is immediate (incentives are calculated periodically) so the agent does not know the "real return" of those actions when making the decisions. AS an added difficulty due to the peculiarities of the insurance sector, the main variables that condition decision-making (for example, the premiun of the policies contracted by the agent on bejalf of the insurance company or the effort required to manage the undertaking of a policy) are stochastic variables..., El problema conocido como la teoría de agentes, o la relación agente-principal, es un problema ampliamente conocido y estudiado bajo la perspectiva económica en el que se estudia cómo una entidad llamada principal delega parte de su actividad a otra conocida como agente a cambio de una compensación económica preestablecida. Así en este contexto surge de forma natural un conflicto de intereses entre los intereses propios del principal y los del agente ya que el agente es autónomo en su toma de decisiones y el principal sólo puede influir en estas decisiones a través del contrato que regula su relación...
- Published
- 2024
40. Técnicas de Detección de Manipulaciones en Imágenes Basadas en los Algoritmos de Interpolación Cromática y Ruido del Sensor
- Author
-
García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, González Fernández, Edgar, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and González Fernández, Edgar
- Abstract
Actualmente, la compartición de material multimedia es algo cotidiano. En diversos escenarios determinar la integridad o autenticidad de un archivo dado resulta crucial, siendo necesario la participación del experto forense. El principal objetivo de este trabajo es la detección de modificaciones en imágenes individuales bajo el supuesto de que no se tiene acceso al dispositivo creador o a imágenes adicionales del mismo dispositivo. Para abordarlo se utiliza el ruido del sensor, siendo imprescindible técnicas de estimación precisas. Con esta finalidad se presenta inicialmente un análisis de métodos bien conocidos parala estimación del ruido del sensor. Se utilizan métricas cuantitativas para la evaluación de la calidad de dichas estimaciones. En este proceso se estudia además el efecto que tiene la compresión JPEG en los valores originales de la estimación, realizando para esto una comparativa de las estimaciones con distintos valores de compresión para evaluar la sensibilidad de las técnicas propuestas..., Nowadays, the sharing of multimedia material is performed on a daily basis. In various scenarios determining the integrity or authenticity of a given file is crucial and requires the involvement of the forensic expert.The main objective of this work is the detection of modifications to individual images under the assumption that there is no access to the creating device or to additional images from the same device. To address this, sensor noise is used, and accurate estimation techniques are essential. To this end, a review of well-known methods for sensor noise estimation is initially presented. Quantitative metrics are used to evaluate the quality of these estimates. In this process, the effect of JPEG compression on the original estimation values is also studied, comparing the estimations with different compression values to evaluate the sensitivity of the proposed techniques...
- Published
- 2024
41. Análisis de vulnerabilidades en contratos inteligentes de la cadena de bloques de Ethereum
- Author
-
García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, López Vivar, Antonio, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and López Vivar, Antonio
- Abstract
La cadena de bloques ha alcanzado gran popularidad en los últimos tiempos tiempos debido principalmente al auge de las criptomonedas, pero también se empiezan a popularizar otras piezas de software más complejas pero con muchos casos de uso conocidas como contratos que van desde las finanzas, la salud, el voto electrónico o el IoT entre otros, son programas informáticos que se almacenan en una cadena de bloques y se ejecutan de forma descentralizada sin necesidad de intermediarios.Desgraciadamente, con el auge de su utilización también han aumentado los ciberataques contra ellos. Existen actualmente una gran cantidad de herramientas de análisis automático de vulnerabilidades. No obstante, esta variedad de opciones con diferentes especificaciones y requisitos de funcionamiento, puede llegar a ser una barrera para muchos desarrolladores de contratos inteligentes no versados en cuestiones de ciberseguridad..., Blockchain has become very popular in recent times mainly due to the rise of cryptocurrencies, but other more complex pieces of software with many use cases known as smart contracts are also starting to become popular. These smart contracts, which have the potential to break into sectors ranging from finance, healthcare, e-volving or IoT among ohers, are computer programs that are stored on a blockchain and executed in a decentralized manner without the need for intermediaries.Unfortunately, with the boom in their use, cyberattacks against them have also increased. There are now a plethora of automated vulnerability scanning tools available. However, this variety of options ith different specifications and performance requirements can become a barrier for many smart contract developers not versed in cybersecurity issues...
- Published
- 2024
42. Análisis de Textos en Dispositivos Android para la Detección de Grooming
- Author
-
García Villalba, Luis Javier, Pérez Arteaga, Sandra, Zea Lavado, Ovidio, García Villalba, Luis Javier, Pérez Arteaga, Sandra, and Zea Lavado, Ovidio
- Abstract
El avance tecnológico o la llamada tercera revolución industrial avanza a pasos agigantados y cada vez está más presente en nuestra vidas, con la popularización de los dispositivos móviles y el auge de las redes sociales, es cada vez menor la edad con la que se entra en contacto con la tecnología y a su vez es cada vez más temprana la edad en la que nos exponemos al riesgo del mundo digital, es bien sabido que en este mundo digital hay muchos perpetradores sexuales acechando a niños, a esta práctica se le denomina Grooming. El presente trabajo tiene como objetivo principal analizar y clasificar las conversaciones que tenga un niño a través de su dispositivo móvil con un posible perpetrador, con el fin de lanzar una alerta temprana a los padres y así lograr frenar el abuso en las redes sociales. Para lograr dicho objetivo se entrenó un modelo propio con la técnica de fine-tuning usando como base un pequeño modelo de lenguaje de gran tamaño (tinyLLM) llamado MobileBERT y un conjunto de datos llamado ChatCoder el cual contiene chats y logs entre abusadores y víctimas. Este modelo clasifica cada mensaje en cuatro posibles fases, las cuales son: amistad, relación sentimental, sexual y abordaje o conclusión. Cada fase determina cual es el nivel de relación entre el niño y su potencial perpetrador. El modelo entrenado se importó en una aplicación Android, la cual analiza cada mensaje escrito en una conversación, y hace un análisis para lanzar una alerta a los padres de detección temprana de depredadores sexuales o eSPD por sus siglas en Ingles., Technological progress or the so-called third industrial revolution is advancing by leaps and bounds and is increasingly present in our lives, with the popularization of mobile devices and the rise of social networks, the age at which we come into contact with technology is getting younger and at the same time the age at which we expose ourselves to the risk of the digital world is getting younger, it is well known that in this digital world there are many sexual perpetrators stalking children, this practice is called Grooming. The main objective of this work is to analyze and classify the conversations that a child has through his mobile device with a possible perpetrator, in order to launch an early warning to parents and thus manage to curb abuse in social networks. To achieve this goal, a fine-tuning model was trained by ourselves using a tinyLLM model called MobileBERT and a dataset called ChatCoder containing chats and logs between abusers and victims. This model classifies each message into four possible phases, which are: friendship, romantic relationship, sexual, and approach or conclusion. Each phase determines the level of relationship between the child and the potential perpetrator. The trained model was imported into an Android application, which analyzes each message typed in a conversation, and makes an analysis to launch an alert to parents for early sexual predator detection or eSPD.
- Published
- 2024
43. Generador condicional de rostros sintéticos
- Author
-
Varela Vaca, Ángel Jesús, Ceballos Guerrero, Rafael, Reina Quintero, Antonia María, Jiménez Rivarés, Daniel, Navar Valdebenito, Claudio, Sandoval Orozco, Ana Lucila, García Villalba, Luis Javier, Varela Vaca, Ángel Jesús, Ceballos Guerrero, Rafael, Reina Quintero, Antonia María, Jiménez Rivarés, Daniel, Navar Valdebenito, Claudio, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Abstract
En este trabajo se propone la utilización de redes generativas adversarias (GANs) condicionales para obtener un modelo de generación de rostros controlable. Este método es fácil de escalar y puede aplicarse a cualquier modelo de GAN. La extensión a un modelo condicional implica cambios mínimos que no repercuten en el rendimiento cuantitativo ni cualitativo del modelo, produciendo imágenes de la misma calidad que el original, mientas que permiten obtener controles independientes de atributos como la edad o el género. Para probarlo empíricamente, se implementa una StyleGAN2 condicional y se compara con la versión convencional.
- Published
- 2024
44. Método para Automatizar Clasificación de Malware PE32 mediante Técnicas de Procesamiento de Lenguaje Natural.
- Author
-
Varela Vaca, Ángel Jesús, Ceballos Guerrero, Rafael, Reina Quintero, Antonia María, Percílio Azevedo, Bruce W., Martínez Hernández, Luis Alberto, Oliveira Albuquerque, Robson, García Villalba, Luis Javier, Varela Vaca, Ángel Jesús, Ceballos Guerrero, Rafael, Reina Quintero, Antonia María, Percílio Azevedo, Bruce W., Martínez Hernández, Luis Alberto, Oliveira Albuquerque, Robson, and García Villalba, Luis Javier
- Abstract
El malware se define como un programa informático que causa daños a los activos de información una vez que se ejecuta. Existen varios tipos de malware, siendo los más comunes los descargadores, keyloggers, mineros, ransomware, rootkits y spyware, entre otros. Cada uno de ellos tiene su propio comportamiento y características y, en algunos casos, pueden clasificarse en más de un tipo debido a sus características. El malware se suele escribir en estructuras con un mayor número de funcionalidades, con el objetivo de afectar al mayor número de activos de información posible. Una de las estructuras más utilizadas es la PE32, que pertenece al estándar de objetos de la familia de sistemas operativos Microsoft Windows, donde han estado disponibles como ejecutables o binarios. Existen dos metodologías para analizar malware, estática y dinámica, cada una compuesta por técnicas como sandbox, que emula el binario y mapea puntos clave, como la memoria y el sistema de archivos, para identificar comportamientos maliciosos. Aunque estas técnicas son muy utilizadas por investigadores de malware, por defecto, debido a su complejidad, suelen consumir mucho tiempo. Con el fin de optimizar el análisis de los binarios, esta investigación propone identificar de manera oportuna un posible malware antes de enviarlo a técnicas que realizan una inspección de la muestra de manera más profunda. La metodología se elabora mediante el uso de técnicas de desensamblado para extraer funciones y archivos de sistemas operativos Microsoft Windows. Después, se estructura un conjunto de datos con los datos extraídos, y se realiza una interpretación léxica basada en word2vec, con el objetivo de identificar funciones y tipos de malware. A continuación, la idea es utilizar los resultados como entrada para un modelo de aprendizaje profundo con técnicas de memoria a largo plazo, que se utilizan ampliamente como sustitutas de las redes neuronales convolucionales. La memoria a largo plazo mapear´ a los patrones
- Published
- 2024
45. Recommendations on statistical randomness test batteries for cryptographic purposes
- Author
-
Almaraz Luengo, Elena Salome, García Villalba, Luis Javier, Almaraz Luengo, Elena Salome, and García Villalba, Luis Javier
- Abstract
Security in different applications is closely related to the goodness of the sequences generated for such purposes. Not only in Cryptography but also in other areas, it is necessary to obtain long sequences of random numbers or that, at least, behave as such. To decide whether the generator used produces sequences that are random, unpredictable and independent, statistical checks are needed. Different batteries of hypothesis tests have been proposed for this purpose. In this work, a survey of the main test batteries is presented, indicating their pros and cons, giving some guidelines for their use and presenting some practical examples., Depto. de Estadística e Investigación Operativa, Fac. de Ciencias Matemáticas, TRUE, pub
- Published
- 2024
46. Understanding Data Breach from a Global Perspective: Incident Visualization and Data Protection Law Review
- Author
-
Pimenta Rodrigues, Gabriel Arquelau, primary, Marques Serrano, André Luiz, additional, Lopes Espiñeira Lemos, Amanda Nunes, additional, Canedo, Edna Dias, additional, Mendonça, Fábio Lúcio Lopes de, additional, de Oliveira Albuquerque, Robson, additional, Sandoval Orozco, Ana Lucila, additional, and García Villalba, Luis Javier, additional
- Published
- 2024
- Full Text
- View/download PDF
47. Natural Language Processing Applied to Forensics Information Extraction With Transformers and Graph Visualization
- Author
-
Rodrigues, Fillipe Barros, primary, Giozza, William Ferreira, additional, de Oliveira Albuquerque, Robson, additional, and García Villalba, Luis Javier, additional
- Published
- 2024
- Full Text
- View/download PDF
48. Trust Evaluation Techniques for 6G Networks: A Comprehensive Survey with Fuzzy Algorithm Approach.
- Author
-
Saeedi Taleghani, Elmira, Maldonado Valencia, Ronald Iván, Sandoval Orozco, Ana Lucila, and García Villalba, Luis Javier
- Subjects
TRUST ,FUZZY algorithms ,COMPUTER network security ,EVALUATION methodology ,DECISION making - Abstract
Sixth-generation (6G) networks are poised to support an array of advanced technologies and promising high-quality and secure services. However, ensuring robust security, privacy protection, operational efficiency, and superior service delivery poses significant challenges. In this context, trust emerges as a foundational element that is critical for addressing the multifaceted challenges inherent in 6G networks. This review article comprehensively examines trust concepts, methodologies, and techniques that are vital for establishing and maintaining a secure and reliable 6G ecosystem. Beginning with an overview of the trust problem in 6G networks, this study underscores their pivotal role in navigating the network's complexities. It proceeds to explore the conceptual frameworks underpinning trust and discuss various trust models tailored to the unique demands of 6G networks. Moreover, this article surveys a range of scholarly works presenting diverse techniques for evaluating trust by using the fuzzy logic algorithm, which is essential for ensuring the integrity and resilience of 6G networks. Through a meticulous analysis of these techniques, this study elucidates their technical nuances, advantages, and limitations. By offering a comprehensive assessment of trust evaluation methodologies, this review facilitates informed decision making in the design and implementation of secure and trustworthy 6G networks. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
49. A comparison of learning methods over raw data: forecasting cab services market share in New York City
- Author
-
Turrado García, Fernando, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, and Kim, Tai-Hoon
- Published
- 2019
- Full Text
- View/download PDF
50. Locating similar names through locality sensitive hashing and graph theory
- Author
-
Turrado García, Fernando, García Villalba, Luis Javier, Sandoval Orozco, Ana Lucila, Aranda Ruiz, Francisco Damián, Aguirre Juárez, Andrés, and Kim, Tai-Hoon
- Published
- 2019
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.