|
Descripcíon |
|
|
MALU GABRIELE SILVA MAFRA
|
|
|
Desenvolvimento de Artefatos para Apoiar o Design e a Avaliação de Chatbots Focando em
Usabilidade e Experiência do Usuário
|
|
|
Fecha : 13-dic-2023
|
|
|
Mostrar Resumen
|
|
|
Chatbots são softwares que se comunicam e interagem de forma semelhante à humana, por meio de linguagem natural, com usuários humanos. Essas ferramentas, disponibilizadas em interface textual ou ativação por voz, são úteis para diversas finalidades que variam desde atendimento ao cliente, vendas, educação e aprendizagem, saúde, até entretenimento. Nos últimos anos os chatbots se popularizaram e observou-se um crescimento significativo no surgimento dessas ferramentas no mercado, principalmente dos chatbots textuais. Essa ascensão tem encorajado desenvolvedores a criarem suas próprias ferramentas, além de atrair os esforços de pesquisadores para esta área. Apesar do destaque, há necessidade de propor tecnologias capazes de apoiar desenvolvedores e equipes de desenvolvimento no processo de projetar e avaliar chatbots de qualidade, visto que embora estas ferramentas estejam em alta, as tecnologias para garantir a qualidade delas e a satisfação dos usuários, não tem acompanhado o ritmo. Diante disto, esta pesquisa de mestrado propõe desenvolver artefatos aplicáveis ao processo de design e da avaliação de chatbots, tendo como base atributos de qualidade relacionados à Usabilidade e User Experience (UX), identificados em revisões da literatura. O foco em Usabilidade e UX se deu devido a importância e o impacto que estes aspectos têm na satisfação do usuário e na qualidade percebida do sistema. O primeiro artefato é o checklist de inspeção U2Chatbot, desenvolvido com o objetivo de auxiliar equipes de desenvolvimento no processo de identificação de defeitos em chatbots textuais, melhorando assim a qualidade dessas ferramentas antes do lançamento destas no mercado. O segundo artefato trata-se do conjunto de padrões de design de interface, o
DP-U2Chatbot, contendo 21 soluções importantes para apoiar desenvolvedores no processo de construção de chatbots. Após o desenvolvimento das tecnologias, estas foram submetidas às avaliações necessárias. Os resultados do estudo experimental referente ao checklist de inspeção U2Chatbot indicaram que os participantes consideraram a tecnologia útil para a descoberta de defeitos em chatbots, no entanto, a facilidade de uso pode melhorar. A experiência dos participantes não influenciou significativamente a eficácia e a eficiência da técnica, levando a crer que profissionais experientes ou novatos podem se beneficiar do checklist de forma igualitária. Quanto a avaliação dos padrões de design DP-U2Chatbot, os resultados indicaram no geral que a tecnologia é fácil de compreender e possui utilidade para apoiar o design de chatbots.
|
|
|
ANILTON BEZERRA MAIA
|
|
|
Custo Total de Propriedade Aplicado à Migração de Sistemas Legados para Ambiente de Computação em Nuvem
|
|
|
Fecha : 10-nov-2023
|
|
|
Mostrar Resumen
|
|
|
Com a ampla adoção da computação em nuvem, um dos principais desafios é a falta de uma estratégia abrangente e entendimento profundo das características envolvendo migração de sistemas legados para ambiente computacional em nuvem, tornando o planejamento da adoção mais desafiador. Migrar sistemas legados para plataformas em nuvem tem alto custo, bem como necessita de um processo rígido que possa validar custos operacionais, investimentos, desafios
técnicos e não-técnicos. Neste trabalho apresentamos uma abordagem baseada em custo total de propriedade - TCO para tomada de decisão de migração de sistemas legados para ambiente computacional em nuvem. Nos experimentos realizados, foram alcançados 89% de vantagem financeira em relação ao modelo tradicional (on-premise), bem como outras vantagens
adicionais como segurança, disponibilidade e escalabilidade. Isso demonstra que a abordagem baseada em TCO é uma solução eficaz para quem deseja migrar seus sistemas legados para o ambiente computacional em nuvem.
|
|
|
JOVENNILTON SOARES DE SOUSA
|
|
|
Análise da integração da metodologia ativa Coding Dojo Randori a uma plataforma de ensino e aprendizagem de algoritmos
|
|
|
Fecha : 29-sep-2023
|
|
|
Mostrar Resumen
|
|
|
O presente trabalho investiga a integração da metodologia Coding Dojo, no formato
Randori, a uma plataforma de ensino e aprendizagem de algoritmos. A questão a ser
enfrentada é como reduzir as dificuldades de aprendizagem em disciplinas relacionadas
a algoritmos e, consequentemente, reduzir a desmotivação dos estudantes. Para isso, foi
realizada uma pesquisa exploratória e descritiva, além disso, foi realizado uma investigação
com professores, por meio de questionário, com a finalidade de compreender suas experiências
sobre o uso de MAs e suas dificuldades em adotá-las. Dessa forma, em conformidade com
os dados coletados, uma plataforma de ensino e aprendizagem de algoritmos foi adaptada
para o uso da metodologia ativa Coding Dojo Randori. A seguir, essa proposta foi
testada em uma sessão piloto e, posteriormente, aplicada em sessões com alunos em aulas
remotas. Logo, ao final de cada sessão, averiguou-se a receptividade dos alunos por meio
de um questionário de avaliação e observações durante as sessões. Os resultados obtidos
corroboram a hipótese de que o uso de metodologias ativas, como o Coding Dojo, quando
incorporado a plataformas de ensino, pode atuar como um facilitador e potencialmente
ampliar a motivação e o aprendizado de algoritmos.
|
|
|
JOECKSON DOS SANTOS CORRÊA
|
|
|
Lhia: Um Agente Conversacional Inteligente para Educação em Aleitamento Materno e Recrutamento de Mães Doadoras
|
|
|
Fecha : 25-ago-2023
|
|
|
Mostrar Resumen
|
|
|
O leite materno é a forma mais importante de alimentar e proteger recém-nascidos, já
que possui os componentes para garantir a saúde do ser humano. Os Bancos de Leite
Humano (BLH) formam uma rede que leva a todo país serviços essenciais para garantir
que recém-nascidos e mães possam usufruir dos benefícios do leite materno. Apesar disso,
há baixa adesão ao aleitamento materno exclusivo no Brasil, e os estoques de leite humano
disponíveis em BLHs usualmente estão abaixo da demanda. O objetivo deste trabalho
é codesenvolver um agente conversacional inteligente para a educação em aleitamento
materno e captação de doadoras de leite humano para BLHs. Será realizada a metodologia
de codesenvolvimento Conversation-Drive Development em parceria com profissionais de
saúde do BLH do Hospital Universitário da UFMA. O chatbot funcionará como uma
tecnologia de comunicação e informação em educação em aleitamento materno para mães.
Espera-se que a percepção, o conhecimento e a atitude materna sejam melhorados, e assim
a taxa de prevalência de aleitamento materno exclusivo aumente, além do aumento no
número de doadoras.
|
|
|
ROBSON EVERTON SOUSA
|
|
|
Uma Abordagem para Identificação e Análise Forense de Ataques DNS
|
|
|
Fecha : 25-ago-2023
|
|
|
Mostrar Resumen
|
|
|
Os Servidores de Resolução de Nomes de Domínios (DNS) realizam uma função fundamental
no estabelecimento do acesso a páginas web. Em virtude de sua importância, são alvos
constantes de ataques cibernéticos, os quais visam apagar ou substituir alguns dos seus
registros, causando enormes prejuízos para usuários, empresas e instituições pelo mundo.
No que tange ao cenário brasileiro, para inibir esses tipos de ataques, vige um dispositivo
legal que tipifica penalmente a invasão de dispositivos informáticos conectados à rede
mundial de computadores, o que inclui os ataques ao serviço de DNS. Apesar da previsão
legal, a identificação dos ataques cibernéticos constitui-se uma difícil tarefa, haja vista
depender da correta aplicação de meios de proteção e monitoramento dos serviços de
rede, bem como da extração e interpretação de dados que permitem a identificação dos
elementos constituintes do fato delituoso. Nessa perspectiva, o presente trabalho propõe
uma abordagem computacional forense para identificar automaticamente a ocorrência de
ataque do tipo DNS CachePoisoning, fazendo a subsunção dos elementos que constituem
o ataque ao dispositivo legal, a fim de identificar a ocorrência de um crime.
|
|
|
LUIS EDUARDO COSTA LAURINDO
|
|
|
Especificação e Monitoramento de Requisitos de Qualidade de Contexto para Aplicações de Fenotipagem Digital
|
|
|
Fecha : 17-ago-2023
|
|
|
Mostrar Resumen
|
|
|
As aplicações de fenotipagem digital utilizam dados de sensores de dispositivos digitais
pessoais (smartphones, smartbands) para quantificar o fenótipo humano momento a
momento no nível individual in-situ. Garantir a qualidade e distribuição dos dados utilizados
é requisito essencial no domínio destas aplicações. A Qualidade de Contexto (QoC) refere-se
à Qualidade da Informação (QoI) utilizada e ao nível de Qualidade de Serviço (QoS) da
distribuição da informação. A QoI é medida por parâmetros que expressam a qualidade da
informação, como a sua acurácia e grau de confiabilidade. Por outro lado, a QoS é fornecida
especificando parâmetros para distribuição de dados de contexto. Alguns aspectos podem
degradar a QoC da aplicação, como informações dos sensores imprecisas, tecnologias de
comunicação sem fio utilizadas na aquisição e distribuição de informações, problemas de
escalabilidade e conexão intermitente devido à mobilidade do usuário. Portanto, este estudo
concebeu um processo para incorporar requisitos de QoC em aplicações para fenotipagem
digital. O processo consiste em cinco etapas, a saber: (i) realizar a especificação dos
requisitos de QoC por meio de um metamodelo; (ii) a geração de código alvo por meio de
um mecanismo de transformação que recebe como entrada a especificação dos requisitos;
(iii) a incorporação na aplicação dos códigos fonte gerados para garantir os requisitos
de QoC; (iv) avaliação e monitoramentos dos parâmetros de QoC; (iv) visualização do
resultado do monitoramento por meio de Dashboards que visa fornecer ao desenvolvedor
um ambiente no qual seja possível acompanhar o nível de qualidade das instâncias da
aplicação. Para avaliar a solução proposta realizou-se o desenvolvimento de um estudo de
caso visando avaliarmos a aplicabilidade do processo proposto em uma aplicação típica
da fenotipagem digital. Adicionalmente, foram realizados experimentos para analisar o
desempenho da aplicação com e sem os mecanismos de QoC, para avaliarmos o impacto
da QoC durante a execução da mesma. Por meio da aplicação do processo proposto
no estudo de caso desenvolvido, observamos a facilidade para incorporar requisitos de
QoC em aplicações para fenotipagem digital, pois sem o suporte do processo proposto
nesta dissertação, o desenvolvedor teria que de forma manual realizar a codificação dos
mecanismos de QoC e de monitoramento. Ao realizar os experimentos de QoC, foi possível
verificar que a aplicação instrumentada com os mecanismos de QoC garante a qualidade das
informações que serão utilizadas para inferência de situações de interesse, a entrega dessas
informações para aplicações consumidoras mesmo em situações de conexão intermitente,
além de minimizar o consumo de recursos de bateria do smartphone e reduzir o volume de
tráfego de rede quando essas informações são disseminadas para outras aplicações.
|
|
|
RODRIGO DO NASCIMENTO SIQUEIRA
|
|
|
SysIoTML: Uma técnica para modelagem de aplicações no contexto de IoT
|
|
|
Fecha : 11-may-2023
|
|
|
Mostrar Resumen
|
|
|
A Internet das Coisas (IoT) é um conceito que conecta objetos inteligentes equipados com
sensores, redes e tecnologias de processamento que trabalham juntos para fornecer um
ambiente no qual serviços inteligentes são levados aos usuários. A modelagem de sistemas
deve ser realizada para criar sistemas IoT e garantir a implementação de um bom sistema.
A IoT aumenta a complexidade da modelagem de sistemas devido a novos conceitos que
precisam ser abordados. No entanto, não existem técnicas estabelecidas de modelagem de
sistemas para este contexto específico. Este artigo apresenta o desenvolvimento de uma
nova técnica para modelagem de sistemas IoT, o SysIoTML, uma extensão do SysML. Tal
técnica considerou aspectos específicos de Sistemas IoT (comportamento e interatividade).
Propusemos o SysIoTML e realizamos uma prova de conceito para analisar a viabilidade
técnica. A técnica desenvolvida mostrou-se útil, e os participantes conseguiram modelar
o problema proposto. A principal contribuição é avançar na modelagem de sistemas
inteligentes por meio de uma nova técnica.
|
|
|
MAURICIO MORAIS ALMEIDA
|
|
|
Imputação de Dados Faltosos em Séries Temporais Univariadas utilizando Meta-Aprendizado baseado em Rede Neural LSTM Híbrida
|
|
|
Fecha : 05-may-2023
|
|
|
Mostrar Resumen
|
|
|
Séries temporais são dados coletado ao longo do tempo de forma regular, descrevendo a
media de um evento no tempo. Por esse, e outros motivos as séries temporais vêm ganhando
cada vez mais espaço em diversas áreas, tais como aplicações comerciais, naturais, médicas.
Uma das principais problemáticas envolvendo séries temporais está na perda de dados,
para recuperar esses dados existem diversas abordagens de imputação de dados em séries
temporais univariadas. Com objetivo de contribuir com a área de imputação de dados,
selecionamos 10 técnicas clássicas de imputação, imputamos séries temporais com essas e
a partir do erro construímos uma base de metadados a com a séries e as classificamos em
10 classes de acordo com menor erro obtido. Além das 10 técnicas utilizadas propomos
um novo método de imputação usando a rede Pix2Pix GAN que imputa dados a partir
de imagens de séries temporais. Somado a isso, propomos uma nova arquitetura de rede
denominada HybridLSTM para recomendar a partir dos metadados rotulados a melhor
técnica de imputação para uma determinada série. Assim, mostramos a rede HybridLSTM
sugeriu as melhores técnicas de imputação de dados a partir das características das
séries, superando em diversas oportunidades as imputações de técnicas clássicas como
interpolação linear e interpolação AKIMA. O método de imputação que propomos foi
testado em 9 datasets diferentes superando e alcançou um ASMAPE médio de 9,51%,
um máximo de 22,75% e um mínimo de 3,73%. Mostramos ainda que a abordagem
que tomamos de imputar dados por meio de janelamento utilizando várias técnicas em
pequenas fatias de séries temporais é um campo promissor e, assim abrimos espaço para
diversas outras pesquisas como a imputação de dados por meio de imagens e redes GANS.
|
|
|
NELSON WEBER NETO
|
|
|
MINERANDO DADOS PARA ENTENDER O IMPACTO DA PANDEMIA DA COVID-19 NO EXAME NACIONAL DO ENSINO MÉDIO
|
|
|
Fecha : 28-abr-2023
|
|
|
Mostrar Resumen
|
|
|
No Brasil, o principal exame de avaliação do desempenho da educação básica é o Exame
Nacional do Ensino Médio (ENEM), que também é utilizado para o ingresso de alunos
no ensino superior. Em 2020, com a chegada da COVID-19, as instituições de educação
básica precisaram mudar seu modelo educacional com ensino presencial para a utilização
de metodologias de ensino à distância, o que pode ter afetado a qualidade da educação
recebida. Portanto, há uma necessidade por entender os efeitos que a pandemia da COVID19 causaram ao ENEM. Esta dissertação de mestrado tem o objetivo de identificar os
principais impactos causados pela pandemia no ENEM, considerando todo o Brasil. Para
tanto, foi realizado o processo completo de Mineração de Dados Educacionais (MDE),
baseado na metodologia Cross Industry Standard Process for Data Mining (CRISPDM), no ENEM em 5 anos diferentes, a fim de compreender os anos pré-pandemia e os
dois primeiros anos da pandemia. Em particular, esse estudo usou técnicas de análise
exploratória descritiva, correlação e agrupamento hierárquico para identificar os impactos
causados no ENEM. Os resultados mostram que os participantes com maiores rendas
tiveram melhor desempenho, as escolas privadas tiveram um desempenho superior aos
outros tipos de escolas, o número de presentes e ausentes no exame foi menor nos anos da
pandemia, e houve uma mudança nas características socioeconômicas dos participantes.
Por fim, a pandemia não impactou negativamente no desempenho dos estudantes, mas as
características dos participantes que realizaram o exame mudaram e o número de ausentes
e presentes no exame foi drasticamente impactado
|
|
|
LUCELIA LIMA SOUZA
|
|
|
Descoberta de Conhecimento nas Bases de Dados da Pandemia da COVID-19 e de Indicadores Socioeconômicos e Ambientais
|
|
|
Fecha : 25-abr-2023
|
|
|
Mostrar Resumen
|
|
|
A pandemia da COVID-19 desencadeou uma crise global de saúde pública e exigiu a análise
de dados em larga escala para entender melhor sua disseminação e impacto na sociedade.
Neste contexto, a Descoberta de Conhecimento em Bases de Dados (Knowledge Discovery
in Databases, KDD) é uma ferramenta útil, pois apresenta uma metodologia bem definida,
com etapas validadas em diferentes aplicações. O presente trabalho objetiva descobertas de
conhecimento dos dados entre a COVID-19 e os Indicadores Socioeconômicos e Ambientais,
através do uso das técnicas de Mineração de Dados (MD) - Data Mining, classificando
novos padrões com método do KDD, visando obter a técnica com o maior percentual de
acertos. Para o problema em estudo, o método KDD utilizado é composto pelas etapas de:
seleção, pré-processamento, transformação, mineração de dados e avaliação. Obteve-se bons
resultados com a aplicação dos métodos de mineração de dados descritiva, que envolvem
os modelos de correlação, agrupamento e regra de associação, estas foram as técnicas
que mais se destacaram, com capacidades de generalização satisfatórias. Os resultados da
descoberta de conhecimento em dados da pandemia da COVID-19 podem contribuir para
a formulação de políticas públicas e tomada de decisões informatizadas em saúde pública.
|
|
|
ITALO FERNANDES SERRA DA SILVA
|
|
|
Desenvolvendo um processo de Teste A/B para avaliação de Usabilidade e Experiência do Usuário
|
|
|
Fecha : 10-abr-2023
|
|
|
Mostrar Resumen
|
|
|
Este trabalho propõe um processo de avaliação de software utilizando o teste A/B,
usabilidade e experiência do usuário. Tradicionalmente, a decisão de adquirir um software
é baseada em funcionalidades, custo e tempo de implantação, sem considerar a opinião
dos usuários que o utilizarão no dia a dia. Este estudo buscou desenvolver um processo
genérico para avaliar dois softwares, utilizando critérios de usabilidade e experiência do
usuário, a fim de auxiliar na tomada de decisão de compra. Foi realizada uma revisão da
literatura, identificando seis artigos relevantes sobre testes de comparação entre softwares
em termos de usabilidade e experiência do usuário. Em seguida, foram identificadas
etapas que poderiam ser substituídas ou adicionadas ao processo, tornando-o flexível para
adaptações. Com base nesse estudo, foi criada a primeira versão de uma nova técnica de
avaliação de software chamada ABTUX, um processo que utiliza o teste A/B, usabilidade e
experiência do usuário. O processo passou por refinamentos e adaptações com a orientação
de engenheiros de software, resultando em uma segunda versão. Para validar o processo
ABTUX, ele foi aplicado nas plataformas de ensino Udemy e Coursera, que são concorrentes
e possuem funcionalidades similares. As respostas dos usuários foram coletadas, analisadas
objetivamente e subjetivamente, e os resultados indicaram que a Coursera obteve a melhor
avaliação em termos de usabilidade e experiência do usuário, de acordo com as premissas e
objetivos do teste. Além disso, um questionário de avaliação foi aplicado aos avaliadores do
teste ABTUX para identificar oportunidades de melhoria no processo e em seus artefatos,
tanto qualitativamente quanto quantitativamente, para orientar estudos futuros.
|
|
|
DANIEL LOPES SOARES LIMA
|
|
|
Classificação de Imagens de Exames de Endoscopia por Cápsula Utilizando Transformers
|
|
|
Fecha : 24-mar-2023
|
|
|
Mostrar Resumen
|
|
|
As doenças inflamatórias intestinais apresentam alta taxa de incidência na população, sendo umas das principais causas de internação hospitalar. Os vídeos obtidos por meio de cápsulas endoscópicas são essenciais para o diagnóstico de anomalias no trato gastrointestinal. Porém, devido à sua duração, que pode chegar a 10 horas, demandam grande atenção do especialista médico em sua análise. Técnicas de aprendizado de máquina têm sido aplicadas com sucesso no desenvolvimento de sistemas de diagnóstico auxiliados por computador desde a década de 1990. Na última década as Redes Neurais Convolucionais (CNNs) tornaram-se modelo de grande sucesso para reconhecimento de padrões em imagens. As CNNs usam convoluções para extrair características dos dados analisados, operando em uma janela de tamanho fixo e, portanto, tendo problemas para capturar relacionamentos em nível de pixel considerando os domínios espacial e temporal. Transformers, por sua vez, usam mecanismos de atenção, onde os dados são estruturados em um espaço vetorial que pode agregar informações de dados adjacentes para determinar o significado em um determinado contexto. Este trabalho propõe um método computacional para análise de imagens extraídas de vídeos obtidos por cápsulas endoscópicas, usando uma arquitetura baseada em Transformers, visando auxiliar o especialista médico no diagnóstico de anormalidades do trato gastrointestinal. A metodologia proposta foi aplicada em 41511 imagens WCE do dataset Kvasir-Capsule. Nos experimentos realizados para a classificação de 11 classes, como melhores resultados foram alcançadas taxas médias de 99,75% de acurácia, 98,17% de precisão, 98,31% de sensibilidade e 98,06% de f1-score.
|
|
|
DOMINGOS ALVES DIAS JUNIOR
|
|
|
Detecção de potenciais acumulações de gás em imagens sísmicas 2D usando abordagem espaço-temporal, PSO e convolucional LSTM
|
|
|
Fecha : 10-feb-2023
|
|
|
Mostrar Resumen
|
|
|
A reflexão sísmica é um dos métodos geofísicos mais utilizados na indústria de petróleo e
gás (oil and gas - O&G) para prospecção de hidrocarbonetos. Em particular, para alguns
campos terrestres brasileiros, esse método tem sido usado para estimar a localização e o
volume das acumulações de gás. No entanto, a análise e interpretação dos dados sísmicos é
demorada devido à grande quantidade de informações e à natureza ruidosa das aquisições.
Para auxiliar os geocientistas, essas tarefas, ferramentas computacionais alimentadas no
aprendizado da máquina têm sido propostas para detecção de potenciais acumulações de
gás. Neste estudo é proposto um método organizado em duas etapas: (1) pré-processamento
aplicado à base de imagens (delimitação da região de interesse, agrupamento das regiões
de imagens sísmicas, geração de amostra espaço-temporais e otimização das amostras); e
(2) detecção de acumulações de gás com base no modelo Convolutional Long Short-Term
Memory (ConvLSTM). Experimentos foram realizados em imagens sísmicas de reflexão
provenientes dos campos de exploração pertencentes à bacia do Paranaíba. Deste modo,
os melhores cenários obtidos foram 58,11% de F1-score, 83,36% de sensibilidade, 44,63%
de precisão, 98,43% de especificidade e 99,29% de acurácia no campo de exploração preto.
No campo real foram alcançados 60,4% de F1-score, 77,79% de sensibilidade, 49,36% de
precisão, 98,62% de especificidade e 99,38% de acurácia. No campo branco, foram obtidos
60,14% de F1-score, 77,89% de sensibilidade, 48,98% de precisão, 96,93% de especificidade
e 99,66% de acurácia. Finalmente, foram obtidos para o campo vermelho 85,51%, 98,88%,
75,33%, 99,3% e 99,35% de F1-score, sensibilidade, precisão, especificidade e acurácia,
respectivamente. Em geral, os resultados fornecem fortes evidências de que o método
proposto é uma ferramenta com potencial para detectar potenciais acumulações de gás
|
|
|
PETTERSON SOUSA DINIZ
|
|
|
Uma Abordagem Utilizando Séries Temporais para Detecção de Gás em Imagens Sísmicas com Transformer
|
|
|
Fecha : 06-ene-2023
|
|
|
Mostrar Resumen
|
|
|
A detecção de reservatórios de gás em imagens sísmicas é complexa, demorada e exige que tenham profissionais especializados para tal tarefa. O grande desafio está na grande quantidade de dados para serem analisados e na dificuldade e recursos necessários para se fazer a comprovação da existência de um reservatório de gás, uma vez que é preciso fazer a perfuração do poço para atestar o fato. Uma opção para contornar a grande quantidade de dados para serem analisados é recorrer ao uso de inteligência artificial através da implementação de redes neurais profundas. Nesse sentido, a escassez de dados comprovadamente corretos impacta no número de amostras anotadas a que temos acesso, o que dificulta de forma significativa o uso de métodos computacionais. Visando contornar as dificuldades citadas, este trabalho propõe o uso de um método de segmentação de reservatórios de gás a partir de uma perspectiva unidimensional com análise de séries temporais. Devido à característica sequencial dos dados sísmicos, é possível se empregar uma metodologia que interpreta cada traço sísmico presente nas imagens de entrada como
sendo uma instância isolada da base de dados. Dessa forma, é possível aumentar o número de amostras no conjunto de dados de forma expressiva. Para fazer a segmentação dos reservatórios foi proposta uma nova arquitetura, que consiste em modificar uma arquitetura
de rede Transformer para que seja capaz de interpretar séries temporais de dados sísmicos.
A rede proposta é do tipo sequência para sequência, o que significa que a rede processa uma
sequência de entrada e retorna uma nova sequência contendo a região de gás segmentada. A escolha deste método se deu pelo fato de esta arquitetura ser eficaz em extrair informações contextuais sem a necessidade do uso de recorrência em seu treinamento, o que resulta em uma melhor performance e permite a paralelização do processo, resultando em uma grande economia de tempo, tanto no treinamento quanto na inferência. A base de dados utilizada nos experimentos é privada e foi concedida pela Eneva para o desenvolvimento desta tecnologia. As métricas utilizadas para avaliação dos resultados foram acurácia, sensibilidade, especificidade e AUC, onde o método obteve 97.16%, 79.61%, 97.47% e 88.54%, respectivamente.
|
|