|
Descrição |
|
|
JUAN RUBEMAR JUNIOR DA SILVA FRAZÃO
|
|
|
Despacho econômico e ambiental de sistemas integrados de eletricidade e de gás com inclusão de plantas de captura de carbono
|
|
|
Data : 19/12/2025
|
|
|
Mostrar Resumo
|
|
|
O despacho econômico e ambiental de sistemas de energia elétrica (SEE) visa otimizar a geração de energia elétrica com o menor custo e as menores emissões de carbono. Nesta pesquisa propõe-se um modelo de despacho econômico e de baixo carbono considerando a interdependência entre as redes de eletricidade e de gás, a inserção de plantas de captura de carbono (PCC), armazenamento de energia e levando em conta as perdas no sistema, de forma a minimizar os custos de geração e a emissão de carbono. A metodologia proposta tem sido implementada na linguagem de programação Python, em ambiente computacional PyCharm, e aplicada ao sistema teste IEEE RTS-24 modificado com 33 geradores, bem como a outros dois sistemas reduzidos compostos por 3 geradores, considerando diferentes cenários de operação. Os resultados das simulações computacionais demonstram que a operação integrada entre as redes de eletricidade e de gás, a integração de plantas de captura de carbono e o armazenamento, possibilitam a operação dos SEE com baixas emissões de carbono e menor economia.
|
|
|
RAYANNE MARIA CUNHA SILVEIRA
|
|
|
A self-adaptive communication protocol for low-cost Wireless Sensor Networks
|
|
|
Data : 18/12/2025
|
|
|
Mostrar Resumo
|
|
|
Currently, the latest research on Wireless Sensor Networks (WSNs) focuses on several
types of applications, given the progress in microelectronics and telecommunication.
One of the most studied topics is energy efficiency, in which different approaches
are evaluated to deal with energy consumption and extend network lifetime. Many
algorithms can be used to deal with these problems, ranging from simple algorithms to
complex machine-learning techniques.However, implementing these algorithms is not
an often-explored topic, although essential, because hardware can have particularities
that decrease performance compared to simulated situations. Therefore this research
presents a study of two routing algorithms to build a self-adaptive protocol for
low-cost wireless sensor networks. The study presents a set of simulated scenarios
to evaluate the performance of a Q-Learning variation and an A-star variation.
As results Q-Learning show a best performance according to energy consumption,
number of hops and balance of the energy consumption in the network.
|
|
|
NERVAL DE JESUS SANTOS JUNIOR
|
|
|
GreenFramework: Um Framework para Monitoramento Inteligente de Recursos Energéticos em Cidades Inteligentes
|
|
|
Data : 01/12/2025
|
|
|
Mostrar Resumo
|
|
|
Tendo em vista o aumento da demanda energética global e expansão de cidades inteligentes com uso de IoT para gestão de recursos de energia elétrica e recursos hídricos, instituições públicas como a UFMA enfrentam ausência de ferramentas de monitoramento de baixo custo, resultando em desperdícios, altos custos operacionais e elevadas emissões de CO2 devido à ineficiência no gerenciamento de cargas em edifícios; este trabalho, financiado pela EMAP (Processo APP-4506/23) por meio da chamada FAPEMA/EMAP (edital nº07/2023) de apoio à pesquisa no Porto do Itaqui, usa a UFMA como estudo de caso, tendo sido concebido como prova de conceito escalável para contextos institucionais e industriais. A motivação reside na necessidade de alinhar a gestão institucional aos Objetivos de Desenvolvimento Sustentável (ODS 7 e 11) e preencher a lacuna de soluções acessíveis em ambientes com restrições orçamentárias, levando à hipótese de que um framework baseado em IoT, microsserviços e machine learning pode identificar padrões de consumo, detectar anomalias e prever demandas com precisão, reduzindo desperdícios. A solução proposta é o GreenFramework, implementado como GreenMonitoring, com arquitetura de microsserviços inspirada na plataforma InterSCity, integração de dispositivos IoT (Telik Trafo) via MQTT (QoS 1), backend em FastAPI com persistência em PostgreSQL, previsão de consumo via LSTM e detecção de anomalias via Random Forest, usando Docker para contêineres. A validação na UFMA, com medição em sete prédios, identificou picos de carga entre 13h e 15h, detectou desperdícios em horários de baixa ocupação, calculou emissões de CO2 com base no fator mensal do MCTI e obteve R2 de 0,9725 no modelo LSTM do CCET; em comparação com o I3SEM, o GreenMonitoring apresentou interface acessível a gestores, interoperabilidade via Model-Driven Engineering e viabilidade técnica para gestão energética em escala institucional e industrial.
|
|
|
JACKY PETIT-HOMME
|
|
|
Dimensionamento e Alocação de Sistema de Armazenamento de Energia em Bateria para Suporte de Tensão e Mitigação de Congestionamento
|
|
|
Data : 17/10/2025
|
|
|
Mostrar Resumo
|
|
|
A crescente integração de fontes de energia renovável, especialmente a energia eólica e solar,
está mudando profundamente o equilíbrio operacional das redes de eletricidade. Embora essas tecnologias ajudem a descarbonizar o sistema, sua variabilidade espaço-temporal gera distúrbios, como flutuações de tensão e congestionamento de linhas, especialmente em redes com baixa flexibilidade. Este trabalho apresenta o estudo do sistema de teste IEEE30 Barras, no qual duas unidades de geração convencional são substituídas por usinas de energia renovável. Com o objetivo de mitigar os impactos dessa transformação sobre a estabilidade de tensão e a operação do sistema elétrico, considera-se a integração de um sistema de armazenamento por bateria (BESS). As áreas críticas da rede são identificadas por meio do Power Transfer Distribution Factor (PTDF) e do Voltage Stability Index (VSI). A posição ótima do BESS é, então, determinada com o auxílio do algoritmo Particle Swarm Optimization (PSO), levando em consideração suas restrições técnicas. As simulações mostram que o posicionamento estratégico do BESS, graças a seus serviços auxiliares, permite que as tensões sejam reguladas, que o congestionamento seja mitigado e que as perdas ativas sejam reduzidas. O monitoramento do SOC e dos ciclos de carga/descarga também valida a eficácia do controle aplicado. Essa abordagem demonstra a relevância da integração otimizada do armazenamento para apoiar a transição energética e, ao mesmo tempo, garantir o desempenho técnico da rede.
|
|
|
HENRIQUE RIBEIRO DE MELLO
|
|
|
Segmentação de acumulações de gás natural em imagens de reflexão sísmica através de técnicas 1D, 1.5D e 2D
|
|
|
Data : 10/10/2025
|
|
|
Mostrar Resumo
|
|
|
A identificação direta de reservatórios de hidrocarbonetos - mais especificamente petróleo
e gás - possui um custo financeiro muito alto, pois envolve a perfuração de poços e
utilização de máquinas e equipamentos. Sendo assim, a busca por métodos indiretos para
a realização desta tarefa é essencial para a redução dos recursos financeiros envolvidos.
Atualmente, o método indireto mais utilizado pela indústria é o de reflexão sísmica,
no qual um equipamento gera vibrações que propagam em subsuperfície e refletem em
estruturas geológicas, fornecendo, assim, informações sobre o que está abaixo do solo. O
passo seguinte é identificar os reservatórios de hidrocarbonetos através da análise destes
dados, o que pode ser feito através da interpretação de um geofísico ou geólogo, o que
demanda tempo, ou automaticamente com auxílio de alguma técnica de aprendizado de
máquina, que será o foco desta tese. Nesse trabalho é desenvolvido um método baseado
em algoritmos de processamento de linguagem natural para a identificação automática de
regiões que possuam indicadores diretos de hidrocarbonetos. O modelo desenvolvido é
altamente sensível à presença dos indicadores - com sensibilidade média entre 0.72 e 0.97,
dependendo do tipo de imagem sísmica e uso de pós processamento. Os resultados são
mais próximos à região de hidrocarboneto delimitada pelo especialista em comparação
com que aqueles encontrados na literatura.
|
|
|
AMIRON WOLFF DOS SANTOS SERRA
|
|
|
Control of Internal Loops in Converters Operating as Virtual Synchronous Machines for Improved Dynamic Response
|
|
|
Data : 03/10/2025
|
|
|
Mostrar Resumo
|
|
|
A crescente integração de fontes renováveis de energia aos sistemas elétricos modernos,
impulsionada por preocupações ambientais e pela busca global por soluções sustentáveis, tem
transformado significativamente o panorama da geração de energia. Nesse cenário, os recursos
baseados em inversores tornaram-se essenciais para a conexão dessas fontes à rede elétrica. Tais
recursos geralmente são controlados por estratégias do tipo seguidores de rede ou formadores de
rede. Enquanto os inversores seguidores de rede dependem de malha de detecção de fase e
requerem uma fonte externa de tensão para sincronização, os inversores formadores de rede são
capazes de estabelecer de forma autônoma referências de tensão e frequência, sendo, portanto,
adequados para operação tanto conectada à rede quanto isolada.
Dentre as estratégias de formadores de rede, destacam-se as máquinas síncronas virtuais por
sua capacidade de emular o comportamento inercial e de amortecimento dos geradores síncronos
convencionais. Essa característica permite uma resposta dinâmica mais robusta em sistemas com
alta penetração de fontes renováveis e baixa inércia. Inversores baseados em máquinas síncronas
virtuais são capazes de sustentar a regulação de tensão e frequência, tanto em operação autônoma
quanto em coordenação com a rede principal.
Esta tese propõe o projeto e o aprimoramento das malhas internas de controle de um inversor
baseado em máquina síncrona virtual, com o objetivo de melhorar a estabilidade do sistema
elétrico e a resposta dinâmica. Especificamente, é desenvolvido um controlador de corrente com
alta largura de faixa, capaz de atenuar a ressonância do filtro LCL e melhorar a rejeição a
perturbações. Também é proposto um controlador de tensão com desacoplamento da entrada de
perturbação, visando aprimorar a resposta dinâmica da máquina síncrona virtual. Com as malhas
de controle internas projetadas, a máquina síncrona virtual apresenta desempenho dinâmico
aprimorado quando conectada à rede, mesmo em uma ampla faixa de razões de curto-circuito,
assim como durante variações de carga em modo isolado. A máquina síncrona virtual também
demonstra melhor desempenho quando operando em uma microrrede, tanto em coordenação com
um inversor seguidor de rede quanto em paralelo com outra máquina síncrona virtual.
De modo geral, esta tese busca aprimorar as malhas internas de uma máquina síncrona
virtual, permitindo que ela atue como uma estratégia eficaz de controle de potência em sistemas
elétricos cada vez mais dominados por recursos baseados em inversores.
|
|
|
MAYARA MARTINS PEREIRA
|
|
|
Árvore de
Regressão aplicada à identificação e priorização de perdas não técnicas
|
|
|
Data : 02/10/2025
|
|
|
Mostrar Resumo
|
|
|
Este trabalho apresenta uma metodologia de priorização de alvos para inspeção de perdas não técnicas em sistemas de distribuição de energia elétrica, fundamentada em modelagem preditiva por árvore de regressão. O objetivo central é identificar instalações com maior propensão a fraudes e irregularidades no consumo, de modo a apoiar ações de normalização e reduzir os impactos técnicos, econômicos e sociais dessas perdas. Para tanto, foi realizada uma revisão bibliográfica e bibliométrica sobre métodos de aprendizado de máquina aplicados ao combate às perdas comerciais, bem como um estudo aprofundado da técnica de árvore de regressão e de sua aplicabilidade neste contexto. O modelo proposto foi desenvolvido com dados reais de uma distribuidora, abrangendo informações de consumo, características cadastrais e registros operacionais, e incluiu etapas de preparação da base de dados, seleção de variáveis preditoras, construção e poda da árvore de regressão por complexidade de custo, além da avaliação do desempenho preditivo. Os resultados obtidos evidenciam a efetividade do modelo na priorização de unidades consumidoras com maior relevância para as perdas não técnicas, demonstrando seu potencial como ferramenta de apoio à tomada de decisão.
|
|
|
MONIK SILVA SOUSA
|
|
|
Quantidade Mínima e Alocação-Regulação Ótima de Nós Sensores Móveis para uma Cobertura Circular Completa da RSSF Híbrida
|
|
|
Data : 10/09/2025
|
|
|
Mostrar Resumo
|
|
|
A cobertura é uma medida de qualidade de serviço em redes de sensores sem fio (RSSF), sendo fundamental no monitoramento de uma região delimitada. Neste trabalho, aborda-se o problema de cobertura dinâmica de uma RSSF híbrida, propondo uma metodologia constituída de dois métodos complementares. O primeiro método visa determinar a quantidade mínima de nós sensores móveis necessário para garantir a cobertura completa da região circular de monitoramento. Essa abordagem baseia-se em um arcabouço teórico composto por suposições, proposições, teorema e corolário, considerando as circunferências de detecção dos sensores, a região monitorada e a circunferência de deslocamento dos agentes. O modelo assegura a conectividade total da rede e apresenta flexibilidade no tratamento a falhas dos agentes. No segundo método, propõe-se um esquema de controle ótimo DLQT-DLQR de cobertura, fundamentado na equação algébrica de Riccati discreta (DARE), com o objetivo de otimizar o deslocamento e a regulação dos nós dinâmicos em suas posições alvo. A metodologia assegura cobertura sem buracos (lacunas) e sem perdas de conectividade entre os nós, minimizando o tempo de deslocamento dos agentes móveis e evitando colisão, devido à preservação da ordem dos nós ao longo da circunferência de deslocamento. O ambiente monitorado é modelado como uma região circular, com um nó sensor estático no centro, enquanto os nós sensores dinâmicos são alocados em uma circunferência de raio menor que a região de cobertura. A solução proposta permite o monitoramento eficiente de ambientes hostis, especialmente aquáticos, contribuindo com a preservação ambiental, reduzindo custos com sensores ociosos e aumentando a eficiência operacional da RSSF. Uma análise comparativa com o método baseado em diagramas de Voronoi é realizada, evidenciando a necessidade de algoritmos capazes de calcular as posições desejadas dos agentes para garantir uma cobertura sem falhas. O método proposto atende a esse requisito ao determinar as posições alvo dos agentes. Além disso, analisa-se a influência da variação do raio de cobertura na quantidade de nós sensores móveis para o monitoramento completo e realiza-se uma comparação com uma área de monitoramento retangular. Por fim, o desempenho do controle de alocação e regulação propostos é avaliado em relação a controladores clássicos, como o proporcional (P) e o proporcional integral (PI), no domínio do tempo com as figuras de mérito.
|
|
|
BRUNO ADRIAN SILVA COSTA
|
|
|
Otimização da Manutenção Centrada na
Confiabilidade em Redes de Distribuição de Energia Elétrica: uma Abordagem Orientada a Regulação
Baseada em Desempenho
|
|
|
Data : 05/09/2025
|
|
|
Mostrar Resumo
|
|
|
Explorando a Manutenção Centrada na Confiabilidade (MCC), apoiada pela Análise de Confiabilidade Preditiva (ACP), o presente estudo enfoca a otimização da frequência de manutenção em redes de distribuição de energia, levando em consideração o rigoroso contexto regulatório imposto pela Agência Nacional de Energia Elétrica (ANEEL). A ANEEL supervisiona as concessionárias de distribuição de energia elétrica através da apuração de indicadores individuais e coletivos que se relacionam com a continuidade do fornecimento de energia elétrica. Assim, as concessionárias são penalizadas quando não cumprem as metas estabelecidas para esses indicadores. Uma abordagem eficaz para mitigar essas penalidades é a programação cuidadosa das atividades de manutenção dos equipamentos da rede; com o objetivo de maximizar os índices de confiabilidade e minimizar os custos de manutenção. Neste contexto, esta pesquisa foca em otimizar a frequência de manutenção, buscando minimizar custos e penalidades associados ao índice DEC (Duração Equivalente de Interrupção por Consumidor). O modelo de MCC proposto é baseado em ACP cronológica, empregando o Método Analítico de Enumeração de Estados (MAEE) e técnicas de agregação de estados em Cadeias de Markov. Além disso, incorpora o uso do Fluxo de Potência Ótimo (FPO) em redes elétricas de distribuição com topologia malhada. O processo de degradação dos componentes é modelado através da distribuição Weibull. O modelo Markoviano não-homogêneo resultante desta distribuição é convertido em um modelo homogêneo através da modelagem de estágios em série. A Otimização por Enxame de Partículas é aplicada em um modelo de otimização multicritérios. Os resultados indicam reduções significativas de penalidades com uma alta relação custo/benefício, destacando a eficácia econômica do método proposto para as concessionárias de energia elétrica, em alinhamento com as regulamentações da ANEEL.
|
|
|
DIEGO DUTRA SAMPAIO
|
|
|
Análise da
Classificação de Crises Epilépticas com Base em Características Estatísticas dos Momentos
Conjuntos da Distribuição Tempo-Frequência de Sinais EEG Utilizando Transformada
Wavelet Contínua e Redes Neurais Profundas
|
|
|
Data : 18/08/2025
|
|
|
Mostrar Resumo
|
|
|
A epilepsia é uma condição neurológica crônica caracterizada por crises recorrentes, decorrentes de descargas elétricas cerebrais anormais, excessivas e sincrônicas. A adequada classificação dessas crises é essencial para a acurácia diagnóstica e a definição de condutas terapêuticas eficazes. Contudo, a análise visual de sinais de eletroencefalograma (EEG) permanece um procedimento laborioso, sujeito à subjetividade e à variabilidade entre observadores. Neste contexto, esta dissertação propõe uma abordagem automatizada baseada em aprendizado profundo para a classificação de quatro tipos de crises epilépticas: Generalized Non-Specific Seizure (GNSZ) crise epiléptica generalizada não específica, Complex Partial Seizure (CPSZ) crise parcial complexa, Focal Non-Specific Seizure (FNSZ) crise epiléptica focal não específica e Tonic-Clonic Seizure (TCSZ) crise tônico-clônica, a partir de características estatísticas extraídas de representações tempo-frequência obtidas por meio da Transformada Wavelet Contínua, aplicada a sinais da base pública Temple University Hospital Seizure Corpus (TUSZ). Foram utilizadas três funções wavelet (Morse, Morlet e Bump), e extraíram-se os momentos estatísticos de média, variância, assimetria e curtose nos domínios temporal, espectral e conjunto, os quais serviram de entrada para modelos baseados em Redes Neurais Convolucionais (CNN, do inglês Convolutional Neural Network), Memória de Longo Curto Prazo (LSTM, do inglês Long Short-Term Memory) e em uma arquitetura híbrida CNN-LSTM. Os experimentos indicaram que a combinação da função wavelet Morse com a arquitetura CNN-LSTM e os momentos de variância e curtose resultou no melhor desempenho geral, com acurácia média de 96,8%, precisão de 96,5%, sensibilidade de 96,9% e F1-score de 96,7%. Destaca-se o desempenho na identificação da classe TCSZ, com acurácia de 98,2% e F1-score de 98,0%. A função Morse obteve desempenho superior entre as wavelets avaliadas (acurácia média de 95,2%), superando Bump (93,7%) e Morlet (91,8%), resultado atribuído à sua maior capacidade de representar componentes de baixa frequência. Em relação aos atributos estatísticos, a variância demonstrou maior poder discriminativo (94,3%), seguida pela curtose (92,7%), enquanto a média apresentou desempenho inferior (acurácia abaixo de 84%). Os resultados demonstram o potencial da integração entre análise tempo-frequência e redes neurais profundas no desenvolvimento de sistemas inteligentes de apoio ao diagnóstico clínico da epilepsia.
|
|
|
GEORGE VAGNER SILVA DE SOUZA
|
|
|
Mapeamento das Fontes de Processamento de Resíduos Diurnos em Sonhos
|
|
|
Data : 13/08/2025
|
|
|
Mostrar Resumo
|
|
|
A intrincada interação entre percepção visual e emoção determina como a experiência de vigília influencia a atividade mental durante o sono, por meio de um "resíduo diurno", ao mesmo tempo conspícuo, mas difícil de prever. Aqui, nos propusemos a mapear as fontes neurais associadas ao processamento visuoafetivo do "resíduo diurno", durante o sono hipnagógico, quando se transita de um estado de vigília tranquila com os olhos fechados para os estágios não REM 1 e 2 do sono. Para tanto, foram avaliados 28 participantes saudáveis em um protocolo combinado de cochilos com despertares em série, estimulação pré-sono com imagens visuais afetivas, medidas combinadas da similaridade semântica entre relatos de imagens visualizadas e imaginadas, classificações de afeto, estimativa de fontes de EEG de 64 canais e análise de conectividade funcional. No geral, a potência do EEG de baixa frequência foi associada a resíduos mais fracos, e a potência do EEG de alta frequência foi associada a resíduos mais fortes. As redes de fontes mais significativamente correlacionadas com resíduos imagéticos e afetivos foram marcadamente diferentes entre os estágios de vigília e sono, sobrepondo-se parcialmente à rede do modo padrão durante N1 em até 50% e 61%, respectivamente. Os resultados nos permitiram identificar correlatos neurais do processamento visuoafetivo dos resíduos do dia, mostrando que o processamento hipnagógico da experiência de vigília envolve interações bi-emisféricas
complexas, dinâmicas e sequenciais entre múltiplas estruturas corticais, subcorticais e
cerebelares com funções visuais, límbicas, optocinéticas e cognitivas. Desta forma, este estudo contribui para preencher lacunas cruciais na literatura sobre os correlatos neurais da consciência, memória e emoção, apresentando novas evidências sobre os mecanismos cerebrais que sustentam a emergência de imagens mentais no limiar entre vigília e sono, com implicações para as neurociências cognitivas, a psicopatologia do sono e a compreensão da natureza fenomenológica dos estados mentais transitórios.
|
|
|
KARLA CAROLLYNE PEREIRA MENDES
|
|
|
Análise de sentimentos em tweets
utilizando modelos tradicionais, deep learning e RoBERTa
|
|
|
Data : 25/07/2025
|
|
|
Mostrar Resumo
|
|
|
Resumo:
Nesta pesquisa, desenvolve-se uma análise de sentimentos por meio da aplicação de diferentes modelos de classificação a textos curtos e informais, como aqueles encontrados em redes sociais, especificamente no Twitter, atualmente X. O estudo contempla algoritmos tradicionais de aprendizado supervisionado, como LSTM (Long Short-Term Memory), LinearSVC, Regressão Logística, BernoulliNB e Árvore de Decisão, além de modelos mais avançados baseados na arquitetura Transformer, com destaque para o modelo RoBERTa (Robustly Optimized BERT Pretraining Approach). Esses modelos são avaliados quanto à sua capacidade de identificar, com precisão, sentimentos positivos, negativos ou neutros, considerando diferentes técnicas de pré-processamento, vetorização e representação textual. A proposta busca comparar esses modelos em diferentes contextos e estruturas linguísticas, evidenciando suas vantagens e limitações no domínio do Processamento de Linguagem Natural (PLN). Adicionalmente, são empregadas técnicas de otimização para ajuste de hiperparâmetros, com o objetivo de aprimorar o desempenho dos modelos em um conjunto de dados com um milhão de tweets. Os modelos RoBERTa e LSTM foram os que tiveram melhores resultados de acurácia com 89,84% e 79,13%, que foram melhores e competitivos com os resultados da literatura recente.
|
|
|
HIGO FELIPE SILVA PIRES
|
|
|
DeB3RTa: Um Modelo de Linguagem Pré-treinado
para Análise de Textos Financeiros em Português usando Domínios Mistos
|
|
|
Data : 16/04/2025
|
|
|
Mostrar Resumo
|
|
|
A terminologia complexa e especializada da linguagem financeira nos mercados de língua portuguesa cria desafios significativos para as aplicações de processamento de linguagem natural (PLN), que devem capturar informações linguísticas e contextuais diferenciadas para apoiar análises e tomadas de decisão precisas. Este trabalho apresenta o DeB3RTa, um modelo baseado na arquitetura Transformer desenvolvido especificamente por meio de uma estratégia de pré-treinamento de domínio misto que combina corpora extensos de finanças, política, administração de negócios e contabilidade para permitir uma compreensão diferenciada da linguagem financeira. O DeB3RTa foi avaliado em comparação com modelos proeminentes incluindo BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT e variantes baseadas em GPT e obteve consistentemente ganhos significativos nos principais benchmarks de PLN financeiro. Para maximizar a adaptabilidade e a precisão, o DeB3RTa integra técnicas avançadas de fine-tuning, como reinicialização de camadas, regularização de Mixout, média estocástica de pesos e decaimento da taxa de aprendizado por camada, que, juntas, melhoram seu desempenho em tarefas de PLN variadas e de grande importância. Essas descobertas ressaltam a eficácia do pré-treinamento de domínio misto na criação de modelos de linguagem de alto desempenho para aplicações especializadas. Com seu desempenho robusto em tarefas analíticas e de classificação complexas, o DeB3RTa oferece uma ferramenta poderosa para o avanço da PLN no setor financeiro e para atender às necessidades de processamento de linguagem diferenciada em contextos de língua portuguesa.
|
|
|
MORGANA CRISTHYA SILVA DOS SANTOS
|
|
|
Análise Multivariada da Qualidade de Combustíveis Comerciais no Estado do Maranhão
|
|
|
Data : 04/04/2025
|
|
|
Mostrar Resumo
|
|
|
A qualidade dos combustíveis é um fator crucial para o desempenho dos motores e a mitigação dos impactos ambientais. No Maranhão, onde a distribuição de combustíveis possui grande importância estratégica, variações na qualidade podem gerar prejuízos econômicos e ambientais significativos. Este estudo utilizou técnicas de Análise Multivariada para avaliar parâmetros físico-químicos de combustíveis comercializados no Maranhão, empregando Análise de Componentes Principais (PCA) e Análise de Componentes Independentes (ICA). Os resultados indicaram que a PCA foi mais eficiente na separação dos grupos de diesel, evidenciando correlações significativas entre as variáveis analisadas, enquanto a ICA apresentou menor capacidade de distinção. Além disso, a identificação de outliers sugeriu variações na formulação, possíveis contaminações ou falhas experimentais. No caso das gasolinas, a PCA revelou padrões bem definidos entre os tipos comum e aditivado, indicando que algumas variáveis físico-químicas são determinantes para essa diferenciação. Já a análise do etanol hidratado por ICA mostrou um comportamento homogêneo, com algumas amostras discrepantes, sugerindo adulteração ou inconsistências na qualidade. Com base nesses resultados, este trabalho propõe estudos futuros para aprofundar a identificação das variáveis mais relevantes, aprimorar as técnicas de análise e fortalecer os processos de controle e fiscalização da qualidade dos combustíveis não só no estado do Maranhão, como em outras regiões do país. Dessa forma, a aplicação da Análise Multivariada se mostra uma ferramenta eficaz para garantir maior segurança, eficiência e conformidade com os padrões regulatórios.
|
|
|
VICTOR GUIMARAES FURTADO
|
|
|
Modelagem Não Linear e
Controlador Ator-Crítico para Manobrabilidade de um USV baseado em DLQT-I e Programação
Dinâmica Heurística Dependente de Ação
|
|
|
Data : 26/03/2025
|
|
|
Mostrar Resumo
|
|
|
Os derramamentos de derivados de petróleo provocam degradação ambiental, problemas socioeconômicos e graves danos à saúde humana. Em decorrência das dificuldades do monitoramento dos eventos em grandes áreas, a utilização de veículos aquáticos de superfície não tripulados (Unmanned Surface Vehicles - USVs) tornou-se imprescindível para a tarefa. A aplicação desses dispositivos demandam a sua instrumentalização com sensores para análise da qualidade da água, além de um sistema de orientação, navegação e controle (Guidance, Navigation and Control - GNC). Especificamente para viabilizar a demanda de manobrabilidade, apresenta-se o desenvolvimento da proposta de um sistema de controle online baseado em Programação Dinâmica Adaptativa (PDA) e Aprendizado por Reforço (AR). O desenvolvimento de um sistema de controle para manobrabilidade de USVs, apresenta empecilhos em sua implementação em decorrência das dificuldades da identificação do sistema para a modelagem matemática do processo por se tratar de um modelo não linear complexo, acoplado e com incertezas. As perturbações externas e possíveis variações paramétricas aumentam os entraves para sua elaboração. Nesse contexto, esta dissertação apresenta o projeto de um controlador ótimo adaptativo baseado em dados para controle das velocidades de USV completamente atuado, como controle de manobrabilidade. A metodologia desenvolvida para o projeto do controlador ótimo online agrega PDA e AR na técnica Programação Dinâmica Heurística Dependente de Ação (Action Dependent Heuristic Dynamic Programming - ADHDP), visando o cálculo da solução online implícita da equação de Hamilton-Jacobi-Bellman (HJB) na forma da Equação Algébrica de Riccati Discreta (Discrete Algebric Riccati Equation - DARE). O sistema utiliza o Aprendizado por Reforço por meio da estrutura ator-crítico, com uma abordagem de controle ótimo para cálculo da lei de controle ótima baseado nos dados da ação de controle e estados do processo. O controlador desenvolvido é um Rastreador Linear Quadrático Discreto com ação integral (DLQT-I) denominado ADHDP-DLQT-I e os seus resultados são avaliados em simulador do modelo não linear, resolvido pelo método Runge-Kutta. O desempenho do sistema ADHDP-DLQT-I é comparado com um controlador PID adaptativo sintonizado pelo método dos Mínimos Quadrados (Least Mean Square - LMS).
|
|
|
JEFFERSON GEORGY DE LIMA CAVALCANTE JUNIOR
|
|
|
Agrupamento Nebuloso
Evolutivo Baseado em Critério Gaussiano Multivariável para Tomada de Decisão em Fluxos de
Dados
|
|
|
Data : 14/03/2025
|
|
|
Mostrar Resumo
|
|
|
RESUMO
Nesta dissertação, é proposto um algoritmo de agrupamento nebuloso evolutivo aplicado a fluxos de dados. O algoritmo realiza o agrupamento dos dados em uma abordagem from scratch, ou seja, determinando as suas variáveis completamente a partir dos dados disponibilizados em fluxo, iniciando a partir da primeira amostra de dados. Ele é baseado na computação de potencial dos dados para a tomada de decisão sobre os centros dos grupos a cada amostra, que é realizada a partir de uma função gaussiana multivariável que considera a densidade e a taxa de variação como variáveis de informação. O algoritmo possui um mecanismo autônomo de normalização de dados para similaridade na escala dos mesmos de acordo com a faixa de operação dinâmica do fluxo de dados, e constrói grupos com protótipos variantes no tempo de acordo com matrizes de covariância nebulosa e uma métrica de distância exponencial. No seu processo de tomada de decisão, ele apresenta um mecanismo baseado nas sensibilidades dos grupos e em raios de grupo adaptativos. No processo de atualização e mescla de grupos, o algoritmo apresenta um mecanismo baseado na técnica evolucionária de cruzamento. Resultados computacionais consideram a implementação do algoritmo para o agrupamento nebuloso evolutivo de 8 benchmarks (S1, A1, R15, Unbalance, Gauss 6-dim, Gauss 10-dim, DIM032 e DIM064) amplamente utilizados na tarefa de agrupamento de fluxos de dados, bem como para o agrupamento nebuloso evolutivo de dados aplicado à modelagem online de séries temporais (Função Hipérbole, Mackey-Glass e Nakanishi) e à identificação online de sistemas dinâmicos não lineares (SISO e MIMO). Resultados experimentais consideram a implementação do algoritmo para o agrupamento nebuloso evolutivo de dados aplicado à identificação online de sistemas dinâmicos do mundo real (Planta Térmica, Helicóptero 2DoF e Foguete Fogtrein-I). No processo de modelagem online de séries temporais e identificação online de sistemas dinâmicos, o algoritmo é aplicado no processo de fuzzificação de dados e criação/atualização de regras nebulosas evolutivas em um sistema de inferência nebuloso evolutivo. Na proposição consequente das regras nebulosas evolutivas, o modelo no espaço de estados é adotado, de modo que sua identificação paramétrica é realizada através do método OKID/ERA Nebuloso Recursivo (Recursive Fuzzy Observer/Kalman filter Identification/Eigensystem Realization Algorithm). Em geral, os resultados indicam que o algoritmo é adequado para o agrupamento nebuloso evolutivo de fluxos de dados, alcançando desempenho competitivo em comparação com outros algoritmos na literatura.
|
|
|
MATHEUS SILVA PESTANA
|
|
|
Análise Multicritério da Qualidade de Imagens PET/CT: Uma Abordagem Quantitativa Baseada em Análise de Componentes Principais
|
|
|
Data : 28/02/2025
|
|
|
Mostrar Resumo
|
|
|
Na presente dissertação observa-se uma metodologia para a modelagem e análise de imagens médicas no formato DICOM provenientes de exames PET/CT, com ênfase na otimização da qualidade das imagens com doses reduzidas de radiofármacos por meio da Análise de Componentes Principais (PCA). A abordagem proposta permite o processamento e a visualização das imagens, bem como a extração e avaliação quantitativa das características principais dos dados, utilizando métricas como PSNR, SSIM, MSE, MAE e diferença de entropia. Essas métricas possibilitam uma análise abrangente, considerando tanto a similaridade visual quanto a preservação de informações e a redução de erros nas reconstruções realizadas. A redução dimensional promovida pelo PCA mostrou-se eficaz ao preservar as principais características estruturais e estatísticas das imagens, resultando em uma representação mais compacta e eficiente dos dados. O uso integrado das métricas de avaliação em um ranking combinado destacou variações de qualidade entre diferentes casos, com resultados superiores a 0,8 em diversos pacientes, evidenciando a alta similaridade na preservação das características das imagens originais. Adicionalmente, a inclusão da diferença de entropia proporcionou uma perspectiva complementar às métricas tradicionais, avaliando mudanças no grau de desordem ou complexidade, um aspecto relevante para a interpretação clínica. Como principais contribuições, esta dissertação apresenta uma abordagem integrando PCA e redução de radiofármacos em imagens PET/CT com base na redução dimensional, a aplicação de métricas normalizadas de avaliação de imagem com a proposta de um ranking combinado com pesos individuais e a estimativa de métricas para comparação entre análises computacionais e avaliações profissionais. Os resultados destacam a relevância de uma abordagem quantitativa integrada para a análise de imagens médicas, evidenciando o potencial do PCA como ferramenta para pré-processamento e redução de dimensionalidade em PET/CT. Estudos futuros podem investigar a otimização dos pesos das métricas utilizadas no ranking combinado e ampliar a aplicação da metodologia a outros contextos clínicos e modalidades de imagem, consolidando sua relevância no processamento de informações biológicas.
|
|
|
JOSE ARTUR LIMA CABRAL MARQUES
|
|
|
OTIMIZAÇÃO DE TRANSPORTE
MULTIMODAL DE GRÃOS: caso do arco norte brasileiro
|
|
|
Data : 21/02/2025
|
|
|
Mostrar Resumo
|
|
|
O Problema do Caminho Mais Curto (Short Path Problem SPP) é um clássico em problemas de rede cujas soluções teóricas vêm sendo estudadas como consequência do crescimento da complexidade das cadeias logísticas globais. O aumento vertiginoso da produção de grãos na região denominada Arco Norte brasileiro nas últimas décadas, gerou a necessidade de uma infraestrutura logística multimodal complexa para escoamento da produção agrícola até os portos marítimos exportadores. A carência de uma infraestrutura logística que atenda adequadamente a região resulta em custos elevados do transporte retirando parte da competitividade da local lavoura de alta produtividade. Para contribuir nas tomadas de decisão quanto ao percurso de menor custo no transporte de grãos até o porto de destino, é proposto um modelo de otimização de transporte multimodal utilizando como método de solução o algoritmo de Dijkstra, com uma representação baseada em um sistema real de uma topologia de grafos, considerando as restrições do sistema real analisado. Uma comparação qualitativa de métodos clássicos para solução em redes (grafos) é apresentada baseada na pesquisa bibliográfica, justificando o método de solução adotado. Os resultados de simulações com dados de um sistema real são apresentados como validação do modelo proposto.
|
|