Back to Search Start Over

AVS: uma ferramenta para mitigação de duplicação de relatórios de erros em empresas de desenvolvimento mobile

Authors :
SANTOS, Ivan Valentim
PRUDÊNCIO, Ricardo Bastos Cavalcante
Source :
Repositório Institucional da UFPE, Universidade Federal de Pernambuco (UFPE), instacron:UFPE
Publication Year :
2019
Publisher :
Universidade Federal de Pernambuco, 2019.

Abstract

FACEPE A adoção de sistemas de gerenciamento de relatórios de erros é algo fundamental em empresas de software durante o processo de produção/teste. Os tipos de informação e a grande quantidade de dados armazenados nesses sistemas levam a desafios que dificultam na produtividade dos processos relacionados à eficiência do rastreamento dos dados, como, por exemplo, a presença de relatórios de erros duplicados. Estudos demonstram que a quantidade de relatórios de erros duplicados pode afetar diretamente na produtividade de uma empresa. Idealmente, um relatório de erro duplicado deve ser identificado antes de ser criado por testadores. Em alguns casos, os gerenciadores de relatórios de erros são apontados como responsáveis por parte desse problema, devido às limitações existentes em seus sistemas de busca. Esta dissertação tem como propósito investigar abordagens e técnicas que possam contribuir para mitigação dos altos índices de relatórios de erros duplicados. Para tal, desenvolvemos a AVS (Automatic Versatile Search tool), uma ferramenta de buscas que contribui para a identificação de relatórios de erros com base em técnicas de Recuperação de Informações e Mineração de Texto, visando dar suporte aos GRE (Gerenciadores de Relatórios de erros) para diminuir a ocorrência de relatórios duplicados. Como prova de conceito, implementamos a AVS no contexto do Centro de Teste da Motorola (CTM) no Centro de Informática da UFPE. Toda pesquisa por um relatório de erro candidato a ser aberto é preprocessada. Então, a semelhança entre a busca (i.e., representada por um resumo de um erro candidato a ser um novo relatório) e os relatórios disponíveis no banco de dados é calculada, gerando uma lista de relatórios anteriores ranqueada por similaridade. No final, os relatórios de erros são divididos em grupos, onde seus dados são relacionados de acordo com as semelhanças entre suas sentenças ou palavras chaves, visando produzir um processo mais avançado de identificação de potenciais duplicações. Após um estudo de caso realizado, foi constatada a utilidade da ferramenta principalmente com relação a ganhos de precisão e agilidade do processo de buscas, o que consequentemente, colaborou para melhoraria na produtividade do processo. The adoption of error reporting systems is fundamental in software companies during the production/testing process. The types of information and a large amount of data stored in these systems lead to challenges that hamper the productivity of processes related to the efficiency of data crawling, such as the presence of duplicate error reports. Studies show that the amount of duplicate error reporting can directly affect a company's productivity. Ideally, a duplicate error report must be identified before it is created by testers. In some cases, error reporting managers are reported to be responsible for part of this problem, due to limitations in their search engines. This dissertation aims to investigate approaches and techniques that may contribute to the mitigation of the high indexes of duplicate error eports. To do so, we have developed the AVS (Automatic Versatile Search tool), a search tool that contributes to the identification of error reports based on Information Retrieval and Text Mining techniques, in order to support GRE (Bug Tracking Systems) to reduce the occurrence of duplicate reports. As proof of concept, we implemented AVS in the context of the Motorola Test Center (CTM) at the Informatics Center of UFPE. Any search for a candidate error report to be opened is preprocessed. Then the similarity between the search (i.e., represented by a summary of a candidate error being a new report) and the available reports in the database is calculated, generating a list of previous reports ranked by similarity. In the end, error reports are divided into groups, where their data are related according to the similarities between their sentences or keywords, in order to produce a more advanced process of identifying potential duplications. After a case study was carried out, it was verified the usefulness of the tool mainly in relation to the gains of precision and agility of the search process, which consequently collaborated to improve the productivity of the process.

Details

Language :
Portuguese
Database :
OpenAIRE
Journal :
Repositório Institucional da UFPE, Universidade Federal de Pernambuco (UFPE), instacron:UFPE
Accession number :
edsair.od......3056..9fe5744839745a5daa28eba134376745