|
Descrição |
|
|
JOEL DE CONCEIÇÃO NOGUEIRA DINIZ
|
|
|
Ensemble de Redes Convolucionais para Inspeção Visual de Estruturas de Concreto Armado
|
|
|
Data : 23/10/2025
|
|
|
Mostrar Resumo
|
|
|
Patologias em estruturas de concreto podem ser evidenciadas visualmente na superfície
do concreto, tais como fissuras ou trincas, fragmentação de parte do concreto, eflorescência
do concreto, manchas de corrosão na superfície do concreto, e barras de aço expostas,
sendo estes dois últimos ocorrência em concreto armado. Portanto, estas patologias
podem ser analisadas via imagens de estruturas de concreto.
Este trabalho propõe uma metodologia para inspeção visual de estruturas de concreto
com uso de redes neurais profundas. Este método permite agilizar a tarefa de detecção
e aumentar sua eficácia, através do ganho de tempo no preparo das identificações a
serem analisadas, e eliminação, ou redução, de erros, como os advindos de falhas
humanos mediante execução massiva de tarefas tediosas nas análises.
A tarefa de identificação de patologia pode ocorrer mediante uso de uma rede neural
convolucional, caso as imagens estejam recortadas para a patologia específica a
ser identificada, ou, com uso de rede de detecção, caso seja uma imagem ampla
onde a patologia está inserida em um contexto com diversas classes de patologia, e
mesmo área sem patologia. Outra tarefa que possibilita a identificação e análise destas
patologias é a tarefa de segmentação.
A metodologia foi experimentada com as tarefas de detecção e classificação. As
arquiteturas de rede neural utilizadas para detecção foram a YOLO (versões 4, 8, 11 e
12) e TOOD, Task-aligned One-stage Object Detection, na abordagem de redes neurais
de um estágio, e Faster RCNN, para abordagem de dois estágios. As três redes foram
posteriormente combinadas para a aplicação de Ensemble, sendo utilizado Weighted
Box Fusion. Já no caso da tarefa de classificação, as arquiteturas de redes utilizadas
foram DenseNet121, ResNet50 e MobileNeV3. A pesquisa foi realizada para localizar datasets que possam ser utilizados para identificação de patologias em concreto, e posteriormente a escolha do conjunto que permita os experimentos propostos neste trabalho. O dataset selecionado para classificação é o Ozgnel, e o de detecção é o CODEBRIM. A tarefa de detecção permite localizar um artefato e classificá-lo. Embora esta abordagem seja eficiente, a pesquisa testou usar a detecção para a localização de patologias, e, posteriormente, usar uma rede neural específica de classificação para definir os tipos de patologias, e, sobretudo, permitir a eliminação de falsos positivos. A abordagem de combinar rede de detecção e rede dedicada de classificação possibilitou o resultado pretendido, potencializado com Ensemble para aumentar a sensibilidade na fase de detecção, aumentando o número de artefatos localizados. Essa abordagem permite passar identificações de falso positivos na primeira fase, mas são eliminados na última fase.
|
|
|
ALLAN KASSIO BECKMAN SOARES DA CRUZ
|
|
|
Geração de documentos de design de jogos educacionais a partir de templates orientados ao Pensamento Computacional
|
|
|
Data : 15/10/2025
|
|
|
Mostrar Resumo
|
|
|
Esta tese investiga como apoiar a autoria de jogos educacionais orientados ao Pensamento Computacional, articulando objetivos pedagógicos, mecânicas de jogo e avaliabilidade. Propõe-se o modelo GDD2PC, que explicita a correlação entre pilares do Pensamento Computacional (abstração, pensamento algorítmico, decomposição e reconhecimento de padrões) e famílias de mecânicas, e deriva-se um template operacional de Game Design Document voltado à prática docente, inclusive em formato enxuto do tipo one-page. Ambos foram materializados no artefato Hefesto Game Lab, concebido para reduzir esforço de autoria, padronizar a qualidade dos documentos e preservar flexibilidade para diferentes contextos educacionais. O percurso metodológico seguiu Design Science Research: levantamento de requisitos, construção do modelo e do template, implementação do artefato e avaliação com usuários potenciais. A avaliação de aceitação baseou-se no TAM, complementado por alinhamento pedagógico e aplicabilidade. Os resultados indicam utilidade percebida média de aproximadamente 4,0, facilidade de uso em torno de 4,1 e intenção de uso de 3,8 em escala Likert de 1 a 5, além de alta confiabilidade do instrumento (alfa de Cronbach elevado). As evidências sugerem que o arranjo reduz ambiguidades na autoria, acelera iterações e fortalece o alinhamento entre pilares do Pensamento Computacional e decisões de design, contribuindo para uma prática mais eficiente e replicável.
|
|
|
ALEXANDRE DE CARVALHO ARAUJO
|
|
|
Segmentação Automática do Pâncreas e Massas Pancreáticas em Tomografias Computadorizadas Usando Arquiteturas Encoder-Decoder
|
|
|
Data : 29/09/2025
|
|
|
Mostrar Resumo
|
|
|
O câncer apresenta um dos problemas mais fundamentais da biologia moderna. O câncer, sendo a segunda principal causa de óbitos em todo o mundo, foi responsável por aproximadamente 10 milhões de mortes no ano de 2020. Comparado a outros tipos de cânceres, o câncer pancreático é relativamente raro. O prognóstico para o câncer pancreático é desfavorável, com uma taxa de mortalidade de 98%, uma das piores entre todos os tipos de câncer. O diagnóstico na fase inicial da doença é o principal fator que define o prognóstico. Uma das principais dificuldades do diagnóstico precoce do câncer de pâncreas é a identificação de massas pequenas em exames de imagem, como a ultrassonografia abdominal, a tomografia computadorizada e a ressonância magnética. Os exames de imagem são as principais ferramentas utilizadas para o diagnóstico precoce. Logo, a identificação dessas massas nos estágios iniciais desse tipo de câncer melhora o prognóstico. Tecnologias que suplementem esses exames baseados em imagem são necessárias. Nesta tese, foram desenvolvidos dois métodos, um para segmentação do pâncreas e outro para a segmentação da massa pancreática em exames de tomografia computadorizada utilizando Aprendizagem Profunda. O método proposto para segmentação do pâncreas utilizou-se da combinação da EfficientNetB7 com a U-Net e alcançou resultados promissores, com Dice médio de 85,39 ± 2,39% na base NIH e 85,96 ± 02,08% na base MSD. Para a segmentação de massas pancreáticas, utilizou-se a combinação de cinco modelos Encoder-Decoder: U-Net, FPN, LinkNet, EDU-Net e ETDPU-Net. Os três primeiros utilizam EfficientNetB7 como backbone, enquanto a EDU-Net e ETDPU-Net -- arquitetura desenvolvida durante esta tese -- utilizam convoluções deformáveis e atenção Squeeze-and-Excitation para melhorar a extração de características. Esses cinco modelos são combinados em um comitê de votação majoritária para obter resultados superiores aos modelos individuais. Esse método alcançou Dice de 65,28% ± 5,57% na base MSD, demostrando a validade e desempenho do método desenvolvido.
|
|
|
HELCIO DE ABREU SOARES
|
|
|
Detecção de Correlações Espúrias com Inteligência Artificial Explicável
|
|
|
Data : 26/09/2025
|
|
|
Mostrar Resumo
|
|
|
Apesar dos avanços em Inteligência Artificial (IA), modelos de Machine Learning
e Deep Learning ainda carecem de transparência e explicabilidade, sendo
tratados como caixas-pretas. Este trabalho aborda o problema das correlações
espúrias associações entre padrões e classes sem relação causal que,
em tarefas de classificação binária em Processamento de Linguagem Natural
(PLN), comprometem a precisão, a imparcialidade e a generalização dos
modelos. Propomos um método que combina técnicas de Inteligência Artificial
Explicável (XAI) e aprendizado não supervisionado para identificar e graduar
padrões espúrios. Utilizando o algoritmo K-means, os padrões são agrupados
e analisados pela distância aos centroides, sob a hipótese de que distâncias
maiores indicam maior grau de espuriedade. A abordagem considera a influência
desses padrões sobre explicadores e sua associação com erros de previsão. A
metodologia é aplicada a dados de licitações e contratos do Tribunal de Contas
do Estado do Piauí (TCE-PI), usando modelos baseados em Support Vector
Machine (SVM), Logistic Regression (LR) com representações textuais TF-IDF
e Word Embeddings, e o modelo BERTimbau, como codificador e classificador
com embeddings contextuais dinâmicos. Aplicamos também o método ao
IMDB para avaliar generalização e compará-lo com métodos de referências.
Os resultados confirmam a hipótese e mostram consistência entre modelos e
bases. As principais contribuições incluem: (i) método agnóstico a modelos e
explicadores; (ii) detecção automática de padrões espúrios; (iii) uma métrica
de espuriedade baseada na distância ao centroide; e (iv) organização lógica e
interpretável dos padrões, ampliando a compreensão dos modelos e apoiando
a mitigação de padrões espúrios.
|
|
|
MARCOS MELO FERREIRA
|
|
|
Classificação do estágio de glaucoma usando dados multimodais
|
|
|
Data : 19/09/2025
|
|
|
Mostrar Resumo
|
|
|
O glaucoma é a principal causa de cegueira irreversível no mundo. Seu diagnóstico precoce é desafiador devido à ausência de sintomas nos estágios iniciais, à necessidade de análise de múltiplos exames por profissionais especializados e ao baixo conhecimento da população sobre a doença. Embora a perda visual causada pelo glaucoma seja irreversível, sua progressão pode ser retardada quando identificada precocemente. Nesse contexto, métodos baseados em deep learning têm se mostrado promissores em tarefas de processamento de imagens médicas, como classificação e segmentação, oferecendo suporte potencial ao diagnóstico clínico. Neste trabalho, foi desenvolvido um método para classificação dos estágios do glaucoma a partir da utilização de retinografias e volumes de OCT. O método emprega uma arquitetura multimodal baseada em redes convolucionais e explora diferentes estratégias de fusão, tanto de mapas de características quanto de predições, com o objetivo de integrar de forma eficaz as modalidades. Além disso, foram investigadas regiões específicas de interesse o nervo óptico, nas retinografias, e as camadas retinianas, nos volumes de OCT como forma de aprimorar a representação dos dados e melhorar a acurácia da classificação. Os experimentos realizados demonstraram que os modelos multimodais alcançaram desempenhos superiores em relação aos unimodais, atingindo como melhor resultado um valor de Kappa de 0,88, o que indica um alto nível de concordância do método proposto em relação às avaliações de especialistas. Adicionalmente, os resultados evidenciaram que a retinografia exerce maior influência do que os volumes de OCT no processo de classificação, enquanto a captura direcionada das camadas da retina mostrou-se uma abordagem promissora para aumentar a precisão do modelo. Esses achados reforçam o potencial de técnicas multimodais baseadas em deep learning como ferramenta de apoio ao diagnóstico do glaucoma, embora novos estudos ainda sejam necessários para ampliar a validação e generalização do método.
|
|
|
SELLES GUSTAVO FERREIRA CARVALHO ARAUJO
|
|
|
Realocação de Circuito para Mitigar os Impactos dos Efeitos de Camada Física em SDM-EON
|
|
|
Data : 18/09/2025
|
|
|
Mostrar Resumo
|
|
|
A rede óptica elástica com multiplexação por divisão espacial (SDM-EON) configura-se como uma candidata promissora para atender à crescente demanda por tráfego de dados na Internet. Essas redes empregam fibras ópticas multinúcleo, nas quais cada núcleo é composto com recurso, podendo ser explorado para acomodar demandas de forma mais eficiente em comparação com as arquiteturas ópticas tradicionais. Tal eficiência decorre do particionamento do espectro óptico em pequenos intervalos de frequência de 12,5 GHz, denominados slots, os quais oferecem flexibilidade no atendimento de requisições com diferentes taxas de bits. O atendimento de uma requisição de circuito requer a resolução do problema Routing, Modulation, Core and Spectrum Allocation (RMCSA), que envolve: i) a definição de uma rota; ii) a seleção do formato de modulação; iii) a escolha do núcleo; e iv) a determinação da faixa espectral. Além disso, ainda é neceessária a verificação da Quality of Transmission (QoT), que deve satisfazer os requisitos da rede. Essa etapa é essencial, pois o sinal óptico sofre degradações cumulativas ao longo de sua propagação na rota, decorrentes das Physical Layer Impairment (PLI). As PLI podem ser mitigadas por meio do mecanismo de realocação de circuitos temática central desta tese de doutorado. Nesse contexto, foram propostos algoritmos de realocação com o objetivo de minimizar os impactos dessas imperfeições, reorganizando os circuitos de forma a ampliar a capacidade de atendimento da rede. As estratégias propostas atuam de maneira preventiva ou reativa, e foram comparadas a algoritmos de referência da literatura em diferentes métricas de avaliação de desempenho. Para isso, foram consideradas métricas tradicionais, como probabilidade de bloqueio de taxa de bits e de circuitos, e métricas específicas de realocação, como número de circuitos realocados, número de eventos de realocação, latência média e latência total de realocação, além da avaliação de custo-benefício. Os experimentos foram conduzidos considerando tráfego dinâmico e duas topologias de rede reais. Os resultados indicam que as estratégias propostas reduziram significativamente as taxas de bloqueio, com destaque para o algoritmo proativo, que obteve maior ganho em capacidade de atendimento. No entanto, em termos de custo-benefício e de latência total adicionada à rede, o algoritmo reativo apresentou melhor desempenho. Ressalta-se ainda que o algoritmo proativo implicou um número mais elevado de circuitos realocados em comparação ao algoritmo reativo, proporcionando maiores ganhos em desempenho, mas acarretando custos operacionais mais elevados
|
|
|
ELINEIDE SILVA DOS SANTOS
|
|
|
Arquitetura Multilevel de CNNs para Otimização da Classificação de Úlceras do Pé Diabético
|
|
|
Data : 09/09/2025
|
|
|
Mostrar Resumo
|
|
|
As úlceras do pé diabético (DFUs) são lesões problemáticas devido às suas altas taxas
de recorrência. Identificar DFUs com infecção e isquemia é essencial para o tratamento
adequado e a prevenção de amputações. A abordagem multilevel proposta combina
duas redes neurais convolucionais (CNNs) para classificar imagens de DFU em quatro
categorias: inexistente, infecção, isquemia e ambas (infecção/isquemia). Foi adotado
transferência de aprendizado, e o multilevel proposto inclui camadas totalmente conectadas
com diferentes quantidades de neurônios e batch normalization. Técnicas
de aumento de dados foram aplicadas a um conjunto composto por 8.242 imagens,
para lidar com o problema de desbalanceamento entre classes, reduzir o risco de
overfitting e melhorar o desempenho da abordagem. Testes adicionais foram realizado
com combinações de CNNs utilizando técnicas como ensembles, no entanto, o multilevel
apresentou os melhores resultados. A avaliação do desempenho foi realizada
por meio de validação cruzada (cross-validation) com 5-fold. Nos experimentos com
classificação em quatro classes, os melhores resultados foram a VGG-16 com valores
acurácia, F1-score, kappa de 93,43%, 93,42% e 89,21% no cenário com apenas um
modelo; o ensemble V19V16ResDenIn obteve acurácia, F1-score, kappa de 95,04%,
94,71% e 91,85%; e o multilevel DeepMLvggNet alcançou 95,91% de acurácia, 95,93%
de F1-score e 93,28% de kappa. Além disso, uma técnica de validação foi aplicada
usando conjuntos de dados cruzados (cross-dataset), utilizando o modelo DeepMLvgg-
Net treinado com o DFUC e testado com o Kaggle DFU. Nessa avaliação, o modelo
alcançou valores superiores a 79% para acurácia, F1-score e kappa. Em comparação à
literatura, o modelo multilevel DeepMLvggNet obteve desempenho superiores às abordagens
com quatro classes. Enquanto, os resultados foram inferiores na classificação
binária, no entanto, os estudos da literatura utilizaram o mesmo conjunto de dados para
treinamento e testes, o que favorece o ajuste dos modelos. Entretanto, o DeepMLvgg-
Net demonstrou resiliência ao ser avaliado em domínios distintos, evidenciando seu
potencial para aplicação no diagnóstico por imagens DFU.
|
|
|
OTÁVIO CURY DA COSTA CASTRO
|
|
|
Source Code Expertise: Improving Knowledge Models and Assessing Generative AI Impact
|
|
|
Data : 22/08/2025
|
|
|
Mostrar Resumo
|
|
|
Identifying developer expertise in source code is valuable in various Software Engineering contexts. Knowledgeable developers are best suited to perform tasks such as code review and onboarding. Numerous models have been proposed to estimate source code knowledge, making it a well-explored topic; however, important gaps remain that affect the accuracy and applicability of these models. Moreover, the increasing use of Generative Artificial Intelligence (GenAI) tools may influence how code expertise is acquired and measured. This study aims to develop more accurate models for identifying source code experts. We first investigate the correlation between development history variables and developers knowledge of source code files. We extract metrics from public and private repositories and survey developers about the files they contributed to. Based on these data, we propose a linear model and train machine learning classifiers, comparing their performance with existing models. We also apply the proposed models to the Truck Factor (TF) metric to assess their practical implications in identifying critical developers. To examine the impact of GenAI, we build a dataset combining code expertise metrics with information on ChatGPT-generated code integrated into open-source projects. We simulate different usage scenarios by assigning a portion of contributions to GenAI instead of developers and survey developers about their perception of GenAIs effects on code comprehension. Our results show that First Authorship and Recency of Modification are the variables most strongly correlated with source code knowledge. The proposed machine learning models outperform linear baselines, achieving F-scores between 71% and 73%. When applied to the TF algorithm, they improved developer identification, reaching a best average F-score of 74%. GenAI usage negatively affected TF reliability, even in low proportions. Developers reported mixed perceptions, with concerns, especially about use by novice programmers.
|
|
|
GILVAN VERAS MAGALHÃES JUNIOR
|
|
|
XRaySwinGen: Pré-Laudos Médicos Automáticos para
Exames de Raio X de Torax com Modelo Multimodal
|
|
|
Data : 20/08/2025
|
|
|
Mostrar Resumo
|
|
|
A radiologia tem papel crucial na medicina moderna ao fornecer diagnósticos precisos
por meio de imagens não invasivas. Entretanto, a elaboração manual de laudos médicos
é um processo demorado e sujeito a falhas humanas. Esta tese propõe um modelo
multimodal para a geração automática de pré-laudos médicos a partir de radiografias de
tórax, combinando técnicas de Visão Computacional e Processamento de Linguagem
Natural com base na arquitetura Transformer. Inicialmente, foi desenvolvida uma
abordagem com codificador visual baseado no Swin Transformer e decodificador textual
integrando camadas de atenção cruzada e treinamento bilíngue com conjuntos de
dados em Português PT-BR ou Inglês. Posteriormente, a arquitetura foi aprimorada
com a introdução de um módulo de memória relacional, permitindo a retenção de
informações contextuais de longo prazo durante a geração dos textos. O modelo final
integra de forma coesa os componentes visuais e textuais por meio de normalização
condicional orientada à memória. Os experimentos, realizados nas bases de imagens
Proposta, IU Chest X-ray, NIH Chest X-ray e MIMIC-CXR-JPG, evidenciaram ganhos
consistentes. Na avaliação com o conjunto de dados completo da MIMIC-CXR-JPG,
o modelo com Swin Transformer e decodificador textual atingiu ROUGE-L de 0.304,
METEOR de 0.233 e BLEU-4 de 0.054. A inclusão da memória relacional elevou essas
métricas para 0.321, 0.281 e 0.114, respectivamente. Na versão do mesmo conjunto
de dados sem o histórico clínico, o desempenho do modelo com memória relacional foi
ainda maior, alcançando ROUGE-L de 0.416, METEOR de 0.384 e BLEU-4 de 0.187
|
|
|
JÚLIO CESAR DA SILVA SOARES
|
|
|
Melhoramento na classificação de pólen usando rede neural híbrida com mecanismo de atenção e separação por vistas: uma abordagem Equatorial e Polar
|
|
|
Data : 15/08/2025
|
|
|
Mostrar Resumo
|
|
|
A pesquisa com grãos de pólen tem aplicações em áreas como ecologia, controle de alergias e rastreamento de alimentos. No entanto, a classificação desses grãos enfrenta desafios significativos devido à limitação dos dados disponíveis e à variabilidade das características morfológicas. Recentemente, a aplicação de Redes Neurais Convolucionais (CNNs) trouxe avanços expressivos nesse campo, com técnicas como transferência de aprendizado e aumento de dados sendo utilizadas para melhorar os resultados.
Este estudo visa inovar na classificação de imagens de grãos de pólen ao considerar as diferenças entre as vistas equatorial e polar. O objetivo central é avaliar o impacto dessas vistas na tarefa de classificação, partindo da hipótese de que a vista polar, por revelar detalhes mais precisos do que a equatorial, pode proporcionar um desempenho superior. Assim, ao separar os grãos de pólen com base nas vistas, espera-se obter resultados que igualem ou superem os reportados na literatura, contribuindo de maneira original para o avanço do estado da arte.
A pesquisa foi estruturada em três etapas interdependentes. Na primeira etapa, as bases de dados foram classificadas em seu formato original, empregando redes pré-treinadas e redes baseadas em mecanismos de atenção, com treinamento iniciado do zero. A segunda etapa focou na separação das bases em vistas equatorial e polar, utilizando técnicas de aprendizado semi-supervisionado para garantir uma divisão precisa. Na terceira e última etapa, as novas bases foram classificadas utilizando
as redes que apresentaram o melhor desempenho na etapa inicial, permitindo uma avaliação comparativa entre as vistas.
Os resultados preliminares demonstram que as redes pré-treinadas, particularmente a DenseNet201, alcançaram melhorias substanciais ao utilizar a base CPD-1 dividida por vistas. A vista polar obteve as melhores métricas, com uma acurácia de 99,10%, superando as pesquisas anteriores que utilizaram a mesma base de dados CPD-1, confirmando a hipótese inicial e destacando a relevância da separação por vistas.
|
|
|
ALEXANDRE CESAR PINTO PESSOA
|
|
|
A Method for Anomaly Classification of Endoscopic Images from the Entire Gastrointestinal Tract
|
|
|
Data : 05/08/2025
|
|
|
Mostrar Resumo
|
|
|
The gastrointestinal tract is part of the digestive system and is essential for digestion.
Digestive problems can be symptoms of chronic diseases such as cancer and should
be treated seriously. Endoscopic examinations of the tract enable the detection of these
diseases in their early stages, allowing for effective treatment. Although they are the gold
standard for GI tract analysis, variations in operator performance limit their usefulness.
Support systems for experts to detect and diagnose such pathologies are desired. The
proposed method aims to develop a method capable of classifying endoscopic images
as normal or with anomalies. The proposed method aims to develop a classification
method capable of distinguishing between healthy and anomalous endoscopic images,
identifying specific anomalies within the gastrointestinal tract, and classifying such
pathologies in a three-step process. The proposed method uses a Convolutional Neural
Network, the EfficientNetV2M, for the initial step. A Deep Learning architecture based
on MambaVision was used for the second and third steps of the proposed method to
classify GI tract anomalies. The second stage is responsible for categorising pathologies
into groups to forward images to specific binary classification models in the third stage,
which are trained to distinguish images between pathologies within each of these groups.
This work uses a rarely used database, the ERS database, containing 121,399 labeled
images of the entire length of the gastrointestinal tract with more than 100 types of
anomalies. The results obtained for the first stage, achieved using a model based on the
EfficientNetV2 architecture, yielded an average F1-Score of 88.15%. The MambaVision
architecture model used for the proposed methods second stage obtained an average
F1-Score of 76.10%. In contrast, the models for the last stage, responsible for classifying
Cancer and Ulcer, Polyp and Other Pathologies, were 82.07% and 75.08%, respectively.
When evaluating the proposed method end-to-end, an average F1-Score of 57.35%
was obtained.
|
|
|
JOSÉ CARLOS CORREIA LIMA DA SILVA FILHO
|
|
|
Localização de Falta em Redes de Distribuição de Energia Elétrica através de Redes Neurais Convolucionais
|
|
|
Data : 28/03/2025
|
|
|
Mostrar Resumo
|
|
|
The increasing complexity of electrical distribution networks, driven by infrastructure modernization and the incorporation of distributed generation, makes it essential to develop efficient methods for fault location. This work proposes a methodology based on the combination of Genetic Algorithms and Convolutional Neural Networks (CNN) to enhance the identification of the bus affected by faults in electrical distribution networks. The employed method segments the system into strategic regions, using key buses to reduce computational complexity and optimize data analysis. A fundamental aspect of the proposed methodology is the transformation of data into visual representations, which
serve as input to the CNN. To this end, the characteristics of voltage signalssuch as root mean square (RMS) value, peak value, peak factor, average value, and distance to the substationare extracted and converted into pixel matrices. These matrices are then normalized and combined into a five-channel image, where each channel represents a specific characteristic of the signal. This approach allows the CNN to process the information efficiently by exploiting complex patterns in the data, thereby improving the accuracy of fault location. The generation of these images is essential to the effectiveness of the method, as it transforms temporal data into a visual representation that facilitates the identification of relevant patterns for fault detection. The modeling and simulation of the
IEEE 34-bus system using ATP software were employed to generate a dataset, enabling the analysis of different fault scenarios. The results demonstrated that the proposed approach outperformed conventional methods by exhibiting high accuracy in detecting the affected bus, achieving an accuracy rate of 99.16% and surpassing techniques such as AdaBoost with Artificial Neural Networks (98.30%) and standalone Artificial Neural Networks (97.60%). The comparison with approaches based on Graph Neural Networks (GNN) across various fault types evidenced that the proposed method attains superior performance in fault location while simultaneously optimizing data processing. Moreover,
representing the data as panoramic images enhanced the extraction of relevant patterns for fault detection, leveraging the ability of CNNs to recognize complex structures. In simulation tests, the models accuracy reached up to 98.50%, depending on the fault type and the segmented group, further demonstrating the robustness of the methodology.
|
|
|
WESLLEY EMMANUEL MARTINS LIMA
|
|
|
A Framework for Extracting Red Flags in Public Procurement: An Architectural Approach
|
|
|
Data : 21/03/2025
|
|
|
Mostrar Resumo
|
|
|
Procurement fraud generates significant economic and social losses worldwide. Despite the efforts of auditing authorities, manual inspection proves inefficient. Due to the high volume of processes and the time required for each analysis, detection rates are low. Computer models have emerged as a promising way to automate fraud detection and prediction. This thesis introduces a novel framework for automatically extracting red flags in public procurement using deep learning and natural language processing (NLP) techniques. The study addresses three main gaps: the lack of automated solutions for red flag detection, the absence of labeled textual databases, and the scarcity of domain-specific language models. The research presents a framework comprising several models for tasks such as section classification, object classification, named entity recognition, and red flag detection. To address the lack of annotated data, the study compiled multiple datasets with thousands of documents related to public procurement, including more than 420,000 documents in Portuguese. A key contribution is the development of HelBERT, a pre-trained language model for the public procurement domain, trained on a large corpus of Portuguese documents. The findings show that HelBERT and its variants outperform general-purpose and legal-domain models in downstream tasks, such as red flag classification and semantic similarity. For example, HelBERT achieved an F1 score of 94.91% in red flag classification and demonstrated the highest accuracy (97.04%) in object classification using keyphrases.
|
|
|
CAIO EDUARDO FALCAO MATOS
|
|
|
Segmentação de Rins, Cistos e Tumores Renais em Imagens de Tomografia Computadorizadas baseada em Módulos de Pirâmide de Pooling e Redes Convolucionais
|
|
|
Data : 20/03/2025
|
|
|
Mostrar Resumo
|
|
|
teste
|
|
|
PEDRO HENRIQUE ALVES RIBEIRO
|
|
|
Reconstrução de imagem com nmBDCA para modelos não convexos
|
|
|
Data : 26/02/2025
|
|
|
Mostrar Resumo
|
|
|
A reconstrução de imagens é muito importante para atividades que dependem da análise ótica e comparativa de dados. Os sinais, obtidos através de sistemas de aquisição, podem ser corrompidos por vários fatores, como movimentação da câmera e ruídos, mas podem ser recuperados pela aplicação de técnicas que os modelam matematicamente. Com isso, ferramentas de otimização contínua vem se tornando populares nos últimos anos em problemas de imagem. Este trabalho busca reconstruir imagens ruidosas, utilizando o non-monotone Boosted DC Algorithm (nmBDCA), uma variante acelerada do Difference of Convex Algorithm (DCA), com uma versão não convexa do modelo de Total Variation (TV), para obter melhor desempenho computacional que o DCA, com qualidade superior. Os resultados são mostrados em três seções: a primeira com imagens em preto e branco, a segunda com imagens médicas de tomografia computadorizada (TC) e a terceira comparando o nmBDCA a uma versão do Boosted Difference of Convex Algorithm (BDCA) com suavização da primeira componente DC, reconstruindo imagens médicas de TC e imagens de ressonância magnética (RM), com diferentes tipos e níveis de ruído. Os resultados da primeira seção enfatizam que o nmBDCA realiza reconstruções com maior PSNR em todos os experimentos, menor tempo de CPU e SSIM maior ou igual ao DCA em 91,67% dos testes. O modelo de TV não convexo é mais robusto que o convexo na presença de mais ruído, apresentando SSIM e PSNR maiores em todos os experimentos realizados. Na segunda seção, o nmBDCA supera DCA em qualidade de reconstrução e tempo de CPU em todos os testes. O desempenho do modelo não convexo aplicado com nmBDCA supera o modelo convexo em SSIM e tempo de CPU em todos os experimentos, sendo superior em PSNR em 77,78% dos os testes. A terceira seção de resultados mostra a superioridade do nmBDCA em relação ao BDCA, tanto em tempo de CPU quanto na qualidade das imagens recuperadas.
|
|
|
WESLLEY KELSON RIBEIRO FIGUEREDO
|
|
|
Abordagem Computacional Baseada em Deep Learning
para a Classificação e Segmentação de Endometriose
Profunda no Retossigmoide através de Imagens de
Ressonância Magnética
|
|
|
Data : 20/01/2025
|
|
|
Mostrar Resumo
|
|
|
Endometriose é uma doença que atinge vários órgãos, principalmente aqueles presentes
na estrutura pélvica, e reduz consideravelmente a qualidade de vida da pessoa afetada
por ela. A endometriose atinge mulheres de diferentes idades, mas principalmente
mulheres em idade fértil. Uma das formas de identificar a doença é através de
exames de imagem, como a ressonância magnética, porém esta não é um meio
tão eficaz quanto a laparoscopia, um método cirúrgico minimamente invasivo. Neste
trabalho, propomos um método automático para segmentação automática da lesão de
endometriose em imagens de ressonância magnética usando técnicas de aprendizado
profundo, afim de servir como auxílio no diagnóstico e ajudar a reduzir a necessidade da
utilização de métodos invasivos. O método é composto por três etapas: segmentação
da região do reto e sigmoide, recorte e redimensionamento, e segmentação da lesão
da endometriose. Atualmente, o método continua em desenvolvimento, e, até momento
obteve um coeficiente Dice médio de 0,7885 para segmentação da região dos órgãos,
e 0,3172 para segmentação da lesão.
|
|