|
Descrição |
|
|
RAFAEL MARTINS BARROS
|
|
|
A Dynamic Programming Approach for the Optimal Reactive Dispatch Control Adjustments Sequencing to Minimize Operational Losses in Transmission Systems
|
|
|
Data : 18/12/2024
|
|
|
Mostrar Resumo
|
|
|
Minimizing operational losses in transmission power systems by the Optimal Reactive Dispatch (ORD) problem consists in a timely research topic that contributes to secure power system operation, the rational the use of scarce resources, the reduction of operational costs, and even the mitigation of greenhouse gas emissions by the power sector (especially in regulated electricity markets) by optimally adjusting its controllable variables, i.e., the terminal voltage magnitude settings of synchronous generators and condensers, the tap ratio settings of on-load tap-changing transformers, and the equivalent susceptances of switchable shunt capacitor banks and reactors. However, power
system operators cannot inadvertedly or simultaneously realize such ORD control adjustments, and have a limited time frame in which such controls must be adjusted prior to a significant change in the active power output of thermal, hydro, wind, and/or solar generation units in the short term. Moreover, most works in the literature do not account in the ORD problem formulation for the sequence in which such control adjustments must be realized, i.e., the path that effectively leads power system operation toward the optimum. Therefore, this work features the optimal sequencing of n ORD control adjustments that minimize operational losses in transmission power systems by the statement of such a mixed-integer (combinatorial) nonlinear programming problem with n! possible solutions as a graph-shortest-path problem. Then, this specific graph-shortest-path problem is solved by a methodological approach based on dynamic programming and parallel computing; the asymptotic time complexity of the proposed methodological approach is also presented and discussed. As opposed to most works in the literature, which heuristically sequence ORD control adjustments, the methodological approach featured in this work guarantees that the obtained path toward minimal operational losses is optimal based on the ORD solution and from the graph-shortest-path problem perspective. Numerical results, average algorithm runtimes, and some parallel-computing performance metrics considering transmission systems with up to 27 controllable variables, and a comparison of results between the proposed methodological approach and other techniques in the
literature are presented to validate the effectiveness and to show the straightforward application of such a methodological proposal.
|
|
|
PABLO DE ABREU VIEIRA
|
|
|
Modelos Preditivos e Generativos para Análise Automatizada de Radiografias da Coluna Lombo-Sacra e Pododáctilos
|
|
|
Data : 04/11/2024
|
|
|
Mostrar Resumo
|
|
|
A radiografia é uma ferramenta essencial na medicina moderna para a visualização interna do corpo humano. Essa técnica, amplamente utilizada para examinar diversas patologias, como doenças ósseas e alterações em tecidos moles, fornece imagens detalhadas com base na absorção diferencial dos raios-X por tecidos de diferentes densidades. No entanto, a análise de radiografias apresenta desafios significativos, como a identificação de anomalias sutis e a interpretação precisa das imagens, muitas vezes dificultada pela variabilidade dos exames e pela sobrecarga de trabalho dos radiologistas. Esta tese propõe uma abordagem inovadora para otimizar a triagem de exames e a geração de laudos médicos preliminares a partir de radiografias, com foco nas radiografias da coluna lombo-sacra e dos pododáctilos. A metodologia desenvolvida combina técnicas de inteligência artificial preditiva e generativa, utilizando arquiteturas avançadas de redes neurais convolucionais como Inception-V3, VGG e ResNet50, aliadas a modelos generativos baseados em Transformers, para enfrentar os desafios associados à análise radiográfica. O objetivo principal é melhorar a eficiência na triagem de exames e fornecer laudos médicos automatizados como suporte à decisão clínica, oferecendo uma segunda opinião detalhada para auxiliar no diagnóstico tanto na coluna lombo-sacra quanto nos pododáctilos. A pesquisa utilizou dois conjuntos de dados radiográficos de lombo-sacra composto por 44,540 e de pododáctilos composto por 16,710. As imagens foram coletadas de hospitais e clinicas de todo território brasileiro, abrangendo uma variedade de cenários clínicos. O desenvolvimento de modelos preditivos, baseado em aprendizado profundo, focou na triagem e filtragem de radiografias, identificando exames que requerem maior atenção e otimizando a eficiência do processo. Além disso, foram desenvolvidos modelos generativos, usando técnicas de aumento de dados e fine-tuning, para a geração automática de laudos médicos preliminares, complementando o trabalho dos radiologistas com diagnósticos e descrições detalhadas a partir das imagens analisadas. Os resultados obtidos na metodologia de classificação de patologias de lombo-sacra, utilizando a técnica de ensemble, demonstraram alta precisão, com valores de 0,941 (Acurácia), 0,874 (kappa), 0,983 (Precisão), 0,952 (F1-Score), 0,947 (AUC), 0,972 (Especificidade) e 0,983 (Sensibilidade). Já na geração automática de laudos para radiografias de lombo-sacra, as métricas alcançadas foram: 0,612 (BLEU-1), 0,552 (BLEU-2), 0,507 (BLEU-3), 0,470 (BLEU-4), 0,471 (METEOR) e 0,633 (ROUGE-L). Para os laudos gerados a partir de radiografias de pododáctilos, os resultados foram: 0,516 (BLEU-1), 0,432 (BLEU-2), 0,386 (BLEU-3), 0,370 (BLEU-4), 0,414 (METEOR) e 0,364 (ROUGE-L). Esses resultados destacam a eficácia do método desenvolvido, que demonstrou potencial para melhorar a precisão dos diagnósticos, otimizar o processo de triagem e oferecer uma solução prática e eficiente para a geração automática de laudos médicos, contribuindo significativamente para o avanço da prática clínica moderna.
|
|
|
THIAGO NELSON FARIA DOS REIS
|
|
|
Sustentabilidade na Nuvem: um Modelo de Eficiência Energética em Ambientes de Computação Verde
|
|
|
Data : 25/10/2024
|
|
|
Mostrar Resumo
|
|
|
Esta tese explora a crescente relevância da computação em nuvem no cotidiano e no
contexto empresarial, destacando a importância de abordagens proativas para mitigar
seu impacto ambiental. A computação em nuvem verde constitui iniciativa importante
para reduzir o consumo de energia e as emissões de CO2 associadas à nuvem, sem
comprometer sua funcionalidade e desempenho. O foco deste trabalho é avaliar a eficácia
de algoritmos de escalonamento de recursos em data centers de computação em nuvem
e desenvolver metodologia inovadora para calcular scores de eficiência energética
e classificar o desempenho energético. Utiliza o ambiente de simulação CloudSim
Plus, quatro algoritmos Round Robin (RR), Dynamic Voltage and Frequency Scaling
(DVFS), Particle Swarm Optimization (PSO) e Ant Colony System (ACS) e os compara
através de 800 simulações. Além das simulações, a metodologia envolveu a análise dos
dados através de técnicas estatísticas rigorosas, incluindo o uso da tabela T-Student, e
a criação de índice de desempenho energético derivado dos resultados obtidos. A
pesquisa também incorporou inteligência artificial, especificamente classificadores
baseados em redes neurais, para aprimorar a classificação dos níveis energéticos. Os
resultados indicaram redução significativa no consumo de energia e emissões de
CO2 aproximadamente 55% e melhoria na eficiência do custo de alocação de
máquinas virtuais em torno de 28%. O estudo demonstrou que a adoção de estratégias
de escalonamento inovadoras e a implementação de modelo quantitativo de avaliação
energética podem otimizar significativamente a eficiência da computação em nuvem.
Além disso, propôs um novo cálculo de scores e a criação de escala de nível energético
que oferecem ferramentas valiosas para a otimização e sustentabilidade em data centers.
|
|
|
JUSTINO DUARTE SANTOS
|
|
|
Diagnóstico de glomeruloesclerose usando comitês de redes neurais convolucionais
|
|
|
Data : 07/10/2024
|
|
|
Mostrar Resumo
|
|
|
A glomeruloesclerose é um doença renal comum, caracterizada pela deposição de tecido
cicatrizado que substitui o parênquima renal. Seu diagnóstico é baseado na análise
histológica de biópsia da região cortical do rim por patologistas para indicar a presença e
a extensão do dano. O diagnóstico é fundamental para orientar o tratamento adequado e
minimizar as chances da doença evoluir para estágios crônicos. O diagnóstico realizado
pelo especialista pode ser uma tarefa demorada e fatigante. Nesse contexto os sistemas
de diagnóstico auxiliado por computador servem ao médico oferecendo-lhe informações
que podem ajudá-lo a diagnosticar doenças de forma mais rápida e menos trabalhosa.
Para identificar glomérulo com esclerose, este artigo propõe um comitê de redes neurais
convolucionais (convolutional neural networks - CNN). Analisamos cinco CNNs - VGG-19,
Inception-V3, ResNet-50, DenseNet-201 e EfficientNet-B2 - para definir o melhor modelo
de CNN, avaliamos várias configurações de camadas totalmente conectadas e realizamos
treinamento em dois estágios: primeiro treinamos somente a parte densa, depois foi feito
um ajuste fino em toda a rede. No total, foram analisados 25 modelos diferentes dos quais
foram selecionados os membros votantes dos comitês formados. Os experimentos foram
realizados em três conjuntos de dados, compostos por 1.062 imagens ao todo, sendo a
metade de cada classe. Ainda aplicamos técnicas de aumento de dados gerando
mais imagens artificialmente no conjunto de treinamento. O uso de comitê reunindo
CNNs baseadas na DenseNet, EfficientNet e ResNet apresentou eficácia na tarefa;
alcançamos acurácia de 93,0% e kappa de 86,1%, considerado excelente. Os resultados
são promissores, mas há pontos nos quais pretendemos avançar: a realização de
experimentos com mais imagens; a avaliação de novas arquiteturas e a inclusão de
outros descritores; avaliação novos comitês bem como outras formas de combinação de
CNNs; aplicação de técnicas de explicabilidade aos modelos.
|
|
|
LUIS HENRIQUE SILVA VOGADO
|
|
|
Classificação Hierárquica de radiografias do Tórax com Comitê de Redes Neurais Convolucionais
|
|
|
Data : 25/09/2024
|
|
|
Mostrar Resumo
|
|
|
As radiografias de tórax, ou raios X de tórax, são os exames de imagem mais utilizados diariamente nos hospitais. Responsável por auxiliar na detecção de inúmeras patologias e achados que interferem diretamente na vida do paciente, esse exame é, portanto, fundamental na triagem dos pacientes. O uso de técnicas de visão computacional atrelada ao aprendizado profundo auxiliam na tomada de decisão por parte do médico radiologista, fornecendo uma segunda opinião e consequentemente reduzindo custos operacionais. Diante disso, este trabalho propõe uma metodologia hierárquica e baseada em um comitê de Redes Neurais Convolucionais (Convolutional Neural Networks - CNNs) para auxiliar no diagnóstico de exames de raios X de tórax, inicialmente rastreando-os com alta probabilidade de serem normais ou anormais e posterior detecção da patologia. No desenvolvimento da etapa de triagem deste estudo, foi utilizado um conjunto de dados com imagens de raios-X de incidências frontal e lateral. Para a construção do modelo ensemble, foram avaliadas as arquiteturas VGG-16, ResNet50 e DenseNet121, comumente utilizadas na classificação de radiografias de tórax. Um Limiar de Confiança (CTR) foi usado para definir as previsões em Normal de Alta Confiança (HCn), classificação Borderline (BC) ou Anormal de Alta Confiança (HCa). Nos testes realizados, foram alcançados resultados bastante promissores: 54,63% dos exames foram classificados com alta confiança; dos exames normais, 32% foram classificados como HCN com uma taxa de falsa descoberta (FDR) de 1,68%; e quanto aos exames anormais, 23% foram classificados como HCa com 4,91% taxa de falsas omissões (FOR). Na etapa de detecção de anormalidades, empregamos a VGG-16 pré-treinada com a base utilizada no desenvolvimento da triagem para avaliar o dataset da NIH Chest X-rays 14, onde foi obtida a AUC média de 0,8484.
|
|
|
JONATAS OLIVEIRA LIMA DA SILVA
|
|
|
Um novo framework para treinamento de Support Vector Machines (SVM) e suas aplicações
|
|
|
Data : 31/07/2024
|
|
|
Mostrar Resumo
|
|
|
Apresentamos um framework unificado para resolver problemas de treinamento não lineares de Support Vector Machines (SVM). O framework é baseado em uma aproximação da função objetivo, tornando o problema separável, e utiliza métodos de busca por um zero de uma função de baixo custo computacional para resolver os subproblemas resultantes. Devido à diagonalização da função objetivo no primeiro estágio do framework, nomeamos o novo solucionador de DiagSVM. Para testar o desempenho do DiagSVM, realizamos experimentos numéricos preliminares com conjuntos de dados de benchmark. A partir dos resultados, escolhemos a melhor combinação utilizada no framework para resolver o problema de Classificação de Lesões Cutâneas (CLC). Dado que o melanoma (câncer de pele) é a doença mais perigosa e mortal que afeta a pele, a aplicação do DiagSVM pode ser integrada em vários sistemas de diagnóstico assistido por computador (CAD) para ajudar na detecção do câncer de pele e reduzir significativamente a morbidade e mortalidade associadas a essa doença. Abordagens baseadas em aprendizado de máquina (ML) e aprendizado profundo (DL) têm sido amplamente utilizadas para desenvolver sistemas robustos de classificação de lesões cutâneas. Para o problema CLC, três redes neurais convolucionais (CNN) pré-treinadas Xception, InceptionResNetV2 e DenseNet201 foram empregadas como extratores de características, e suas dimensões foram reduzidas usando Análise de Componentes Principais (PCA), Análise de Componentes Principais de Kernel (KPCA) e Análise de Componentes Independentes (ICA). Para validar a proposta, comparamos o DiagSVM com o solucionador popular na literatura, o Libsvm.
|
|
|
JONATAS OLIVEIRA LIMA DA SILVA
|
|
|
Um novo framework para treinamento de Support Vector Machines (SVM) e suas aplicações
|
|
|
Data : 31/07/2024
|
|
|
Mostrar Resumo
|
|
|
Apresentamos um framework unificado para resolver problemas de treinamento não lineares de Support Vector Machines (SVM). O framework é baseado em uma aproximação da função objetivo, tornando o problema separável, e utiliza métodos de busca por um zero de uma função de baixo custo computacional para resolver os subproblemas resultantes. Devido à diagonalização da função objetivo no primeiro estágio do framework, nomeamos o novo solucionador de DiagSVM. Para testar o desempenho do DiagSVM, realizamos experimentos numéricos preliminares com conjuntos de dados de benchmark. A partir dos resultados, escolhemos a melhor combinação utilizada no framework para resolver o problema de Classificação de Lesões Cutâneas (CLC). Dado que o melanoma (câncer de pele) é a doença mais perigosa e mortal que afeta a pele, a aplicação do DiagSVM pode ser integrada em vários sistemas de diagnóstico assistido por computador (CAD) para ajudar na detecção do câncer de pele e reduzir significativamente a morbidade e mortalidade associadas a essa doença. Abordagens baseadas em aprendizado de máquina (ML) e aprendizado profundo (DL) têm sido amplamente utilizadas para desenvolver sistemas robustos de classificação de lesões cutâneas. Para o problema CLC, três redes neurais convolucionais (CNN) pré-treinadas Xception, InceptionResNetV2 e DenseNet201 foram empregadas como extratores de características, e suas dimensões foram reduzidas usando Análise de Componentes Principais (PCA), Análise de Componentes Principais de Kernel (KPCA) e Análise de Componentes Independentes (ICA). Para validar a proposta, comparamos o DiagSVM
com o solucionador popular na literatura, o Libsvm.
|
|
|
ALINE MONTENEGRO LEAL SILVA
|
|
|
Interpretação de grupos a partir de método de inferência da quantidade ótima de clusters baseado em faixa de valores dos atributos com posterior rotulação automática de dados
|
|
|
Data : 08/06/2024
|
|
|
Mostrar Resumo
|
|
|
O aprendizado de máquina é uma técnica relevante de reconhecimento de padrões por
meio da detecção de correlações entre os dados. Em se tratando de aprendizado não
supervisionado, os grupos formados a partir dessas correlações podem receber um rótulo,
que consiste em descrevê-los em termos de seus atributos mais relevantes e suas
respectivas faixas de valores para que sejam compreendidos automaticamente. Nesse
trabalho de pesquisa, esse processo é intitulado de rotulação. Entretanto, um desafio para
os pesquisadores é estabelecer o número ótimo de grupos que melhor representa a
estrutura subjacente dos dados submetida ao agrupamento. Esse número ótimo pode
variar dependendo do conjunto de dados e do método de agrupamento utilizado e
influencia no processo de clusterização dos dados e consequentemente na interpretação
dos grupos gerados. Portanto, essa pesquisa tem o intuito de fornecer uma abordagem de
interpretação de grupos a partir de critério de inferência da quantidade ótima de clusters a
ser utilizada no agrupamento, com base em faixa de valores dos atributos, seguida de
uma rotulação automática de dados baseada em métrica de dispersão para maximizar a
compreensão dos grupos obtidos. Essa metodologia foi aplicada a sete bases de dados e
os resultados mostram que ela contribui para a interpretação dos grupos, uma vez que
gera rótulos mais precisos.
|
|
|
ALAN RAFAEL FERREIRA DOS SANTOS
|
|
|
A Influência da Iluminação e Cor na Precisão de Detecção de Câncer de Pele com Aprendizado Profundo
|
|
|
Data : 07/06/2024
|
|
|
Mostrar Resumo
|
|
|
Os cânceres de pele malignos são comuns em países emergentes, sendo que as principais causas dessas doenças são exposição solar excessiva e predisposições genéticas. A cor é um atributo relevante na detecção dessas doenças, lesões que possuem aspecto de cor variável podem aumentar as chances de ocorrência que levam ao câncer de pele maligno. O aprendizado profundo é considerada uma das metodologias mais promissoras na detecção automática do câncer de pele por imagens digitais. As bases de imagens disponíveis na literatura para treinar métodos desse tipo possuem condições de iluminação variadas. Essas variações podem afetar a representação fidedigna das cores das lesões. Nesse sentido, visto a relevância das cores para o diagnóstico médico do câncer de pele, a tese deste trabalho desenvolveu um estudo focado nas nuances de iluminação e na reflexão de cores para identificar as relações entre essas características e detecção precisa de lesões de pele malignas. Para isso, uma abordagem foi desenvolvida priorizando essas características na detecção de malignidades com aprendizado profundo. Essa abordagem inclui a remoção de pelos, a aplicação dos métodos avançados de correção de iluminação e cor LCDPNet, LLNeRF e DSN. Além disso, também são tratadas outras técnicas convencionais de correção dessas características como o CLAHE, o Perfect Reflector e o SoG. A segmentação semântica é outra sistemática aplicada na delimitação da região de interesse com a técnica DeepLabV3+, determinando o melhor envoltório da lesão nas imagens. O treinamento das arquiteturas Inception-V3, Xception, ResNet-50 e DenseNet-121 foi realizado por transferência de aprendizado e ajuste, com aumento de dados utilizando a técnica TTA. Os resultados apresentados mostram que a correção dos aspectos de iluminação e cor são necessários para melhorar a precisão de diagnóstico do câncer de pele, mesmo com o aprendizado profundo. Isso é evidenciado pela combinação sinérgica da abordagem desenvolvida, sendo que as técnicas LCDPNet, LLNeRF e DSN proporcionaram um melhor desempenho, oferecendo um aumento de precisão entre 3% e 4%, se comparado com as técnicas convencionais CLAHE, Perfect Reflector e SoG. As diferentes arquiteturas de redes neurais profundas reagem de maneira variável às correções de iluminação e cor. Algumas arquiteturas são mais sensíveis às variações dessas características, enquanto outras são mais robustas. Essa sensibilidade está relacionada ao design da arquitetura, camadas e filtros. O estudo desenvolvido evidencia como a integração de métodos avançados de correção de iluminação e cor em conjunto com outras técnicas de aprendizado profundo pode melhorar o diagnóstico preciso do câncer de pele, oferecendo novas oportunidades de pesquisas e aprofundamentos.
|
|
|
JURANDIR CAVALCANTE LACERDA JÚNIOR
|
|
|
Alocação de Recursos em Redes Ópticas Elásticas com Multiplexação por Divisão Espacial Considerando Limitações da Camada Física
|
|
|
Data : 13/03/2024
|
|
|
Mostrar Resumo
|
|
|
Nos últimos anos, a comunidade cientifica tem apontado as redes ópticas elásticas com multiplexação por divisão espacial (space-division multiplexed elastic optical networks (SDM-EONs)) para compor a infraestrutura das redes de transporte e atender a crescente demanda de tráfego dos usuários. Nas SDM-EONs baseadas em fibras multi-núcleos, a fibra óptica é dividida em vários núcleos e cada núcleo possui seu próprio espectro óptico. Uma questão fundamental no funcionamento de uma SDM- EON é a alocação de novos caminhos ópticos a partir de chegadas de requisições para novas conexões. Esta questão está relacionado ao problema de alocação de recursos conhecido como problema de roteamento, escolha de modulação, alocação de núcleo e espectro (routing, modulation, core, and spectrum assignment (RMCSA)). Um dos desafios para resolver o problema RMCSA são as limitações da camada física da rede. As limitações de camada física impactam diretamente na qualidade de transmissão dos caminhos ópticos da rede. Dentre as várias limitações de camada física, destacam-se o crosstalk inter-núcleo, o ruído ASE e as interferências não-lineares. Neste contexto, o objetivo desta Tese é propor algoritmos para resolver o problema de alocação de recursos em SDM-EONs baseadas em fibras multi-núcleos, considerando as limitações da camada física da rede. Como contribuições são propostos cinco algoritmos: o algoritmo de balanceamento de espectro (ABE); o algoritmo de balanceamento de núcleo (ABN); o algoritmo com aprendizado de máquina para escolha de núcleo (AMN); o algoritmo ciente de crosstalk para alocação de núcleo e espectro (ACiNE); e o algoritmo ciente de limitações intra e inter núcleo para escolha de modulação, núcleo e espectro (CIA-MCSA). Os algoritmos propostos são submetidos a um processo de avaliação de desempenho que considera diferentes formatos de modulação, o funcionamento em diferentes topologias de redes, em fibras ópticas multi-núcleos com diferentes coeficientes de acoplamento, cenários de tráfego dinâmico e com demandas por taxa de bits heterogêneas entre os clientes. Os resultados numéricos mostram bom desempenho dos algoritmos propostos em termos de probabilidade de bloqueio de circuito e probabilidade de bloqueio de banda, quando comparados a outras propostas da literatura.
|
|