|
Descripcíon |
|
|
JOAO PEDRO GOMES DE SOUZA
|
|
|
Detecção de Fissuras em Micro Tomografia de Concreto Reforçado Por FibrasUtilizando Redes
Neurais Profundas
|
|
|
Fecha : 22-sep-2025
|
|
|
Mostrar Resumen
|
|
|
O concreto reforçado por fibras é um material crucial para construção civil e monitorar sua
condição é uma tarefa importante para sua preservação e prevenção de acidentes e perdas
financeiras. Dentre os vários métodos não destrutivos de monitoramento da condição
do concreto, destaca-se a análise por imagens de Microtomografia Computadorizada
(Micro-CT), por se tratar de um método barato e livre de ruídos e de interferências
externas. Contudo, a identificação manual de fissuras em imagens de Micro-CT é subjetiva
e requer um esforço humano significante. Algoritmos de aprendizado profundo vem
sendo utilizados constantemente para a detecção automática de fissuras em concreto,
porém apenas em regiões superficiais. Detectar fissuras em toda a estrutura do concreto
reforçado por fibras, incluindo a parte interna, como em volumes de Micro-CT de alta
resolução, permanece um desafio. Este estudo, portanto, propõe um método automático
para detecção de fissuras especificamente para imagens de Micro-CT de concreto reforçado
por fibra, integrando técnica de pré-processamento utilizando super-resolução, Detection
Transformers (DETR) e pós-processamento baseadas em comitê para aprimorar a precisão
e confiabilidade das detecções de fissuras. O modelo foi treinado e validado usando uma
base de dados criada e publicada a partir de imagens Micro-CT de experimentos de tração
fibra/matriz denominada FIRECON Dataset, composta de 4,064 imagens anotadas por
especialistas. alcançando métricas de 86,098% de Interseção sobre União(IoU), 89,37% de
Precisão, 83,26% de Recall, 84,99% de F1-Score e 44,69% de Precisão Média (AP). Este
método portanto reduz significativamente o tempo de análise, esforço humano e melhora a
consistência dos resultados em comparação com uma inspeção visual. O método proposto
mostra o potencial do aprendizado profundo no auxílio do monitoramento da condição e
compreensão dos mecanismos de fissuração do concreto reforçado por fibras e oferece uma
ferramenta valiosa para o desenvolvimento de materiais de engenharia duráveis e de alto
desempenho.
|
|
|
KENNEDY ANDERSON MENDES NUNES
|
|
|
Desenvolvimento de Artefatos para Apoiar o Design e Avaliação de Dashboards de Sistema de Apoio a Tomada de Decisão focando em Usabilidade e User Experience
|
|
|
Tutor : LUIS JORGE ENRIQUE RIVERO CABREJOS
|
|
|
Fecha : 18-sep-2025
|
|
|
Mostrar Resumen
|
|
|
Dashboards bem projetados sintetizam dados complexos, permitindo que os usuários identifiquem rapidamente tendências e padrões. Para alcançar seus objetivos, esses dashboards devem ser fáceis de usar, melhorando a capacidade dos usuários de entender, interagir e extrair insights a partir dos dados apresentados. Este artigo destaca a importância dos dashboards no apoio à tomada de decisão, enfatizando o papel crucial da experiência do usuário (UX) e da usabilidade na efetividade desses sistemas. Nos últimos anos os dashboards se popularizaram e observou-se um crescimento significativo no surgimento dessas ferramentas no mercado. Essa ascensão tem encorajado desenvolvedores a criarem suas próprias ferramentas, além de atrair os esforços de pesquisadores para esta área. Apesar do destaque, há necessidade de propor tecnologias capazes de apoiar desenvolvedores e equipes de desenvolvimento no processo de projetar e avaliar dashboards de qualidade, visto que embora estas ferramentas estejam em alta, as tecnologias para garantir a qualidade delas e a satisfação dos usuários, não tem acompanhado o ritmo. O principal objetivo dessa pesquisa de mestrado é propor atributos de qualidade relacionados à usabilidade e à experiência do usuário que possam ser incorporados durante o processo de desenvolvimento de dashboards. Após uma revisão da literatura sobre os atributos de qualidade de dashboards, foi desenvolvido um checklist para avaliar os aspectos de usabilidade desses sistemas. O checklist facilita a identificação estruturada e simples de problemas de usabilidade, mesmo por usuários inexperientes, sendo uma ferramenta de avaliação robusta baseada em atributos de qualidade validados pela literatura anterior. Além disso, propor um conjunto agregado de Padrões de Design associados aos itens de verificação do checklist. Tanto o checklist de inspeção quanto os padrões de design foram aplicados para a avaliação e o redesenho de dashboards propostos dentro de um sistema de informação voltado à tomada de decisão na empresa multinacional de energia Equatorial Energia. Os resultados dessa experiência sugerem a viabilidade de considerar esses atributos de qualidade para melhorar a facilidade de uso dos dashboards. Para avaliar o checklist UDASHBOARD e padrões de design DP-DASHBOARD, foi conduzido um estudo experimental e os resultados indicaram que os participantes consideraram a tecnologia útil para a descoberta de defeitos em dashboards, no entanto, a facilidade de uso pode melhorar. Além disso, verificou-se que a experiência dos participantes não influenciou significativamente os resultados de eficácia e a eficiência da técnica. Para os resultados relacionados aos padrões indicaram que no geral a tecnologia é fácil de compreender e possui utilidade para apoiar o design de dashboards, no entanto, os exemplos visuais de alguns padrões podem melhorar para ficarem mais claros aos desenvolvedores.
|
|
|
ARTHUR MARINHO DOS PASSOS
|
|
|
Desenvolvimento de Artefatos para Apoiar o Design e a Avaliação de Bibliotecas Digitais Móveis focando em User Experience
|
|
|
Tutor : LUIS JORGE ENRIQUE RIVERO CABREJOS
|
|
|
Fecha : 16-sep-2025
|
|
|
Mostrar Resumen
|
|
|
Bibliotecas digitais móveis são aplicativos acessados por dispositivos móveis que oferecem uma ampla variedade de conteúdos educacionais, porém enfrentam desafios significativos relacionados à usabilidade, acessibilidade e experiência do usuário. Para compreender e enfrentar esses desafios, esta pesquisa desenvolveu uma abordagem estruturada iniciando-se por estudos exploratórios, que investigaram o contexto real de uso e as demandas dos usuários, identificando lacunas práticas e teóricas no desenvolvimento dessas bibliotecas digitais móveis. Em seguida, foi realizada uma Revisão Sistemática da Literatura (RSL) aprofundada, cujo objetivo foi mapear os atributos de qualidade mais relevantes para bibliotecas digitais móveis, reunindo conhecimento consolidado e identificando oportunidades para aprimoramento. A RSL permitiu consolidar critérios de avaliação que fundamentaram a construção da checklist inicial denominada BiblioCheck, voltada para a avaliação da usabilidade e qualidade dessas bibliotecas digitais móveis. A checklist BiblioCheck agrega critérios específicos e práticos, visando facilitar a inspeção sistemática das bibliotecas digitais móveis, orientando tanto desenvolvedores quanto avaliadores no processo de garantia de qualidade. Para validar sua aplicabilidade, essa checklist foi submetida a uma avaliação junto a usuários e especialistas da área, que analisaram sua eficácia em identificar pontos fortes e fragilidades dessas bibliotecas, bem como sua relevância para guiar melhorias. Os resultados da avaliação evidenciaram boa aderência da BiblioCheck, destacando sua facilidade de uso e capacidade de apontar aspectos críticos que impactam a experiência do usuário. Assim, a combinação dos estudos exploratórios, da RSL e da avaliação da checklist formou um conjunto integrado de artefatos que suportam o desenvolvimento de bibliotecas digitais móveis mais acessíveis, eficientes e alinhadas às necessidades reais dos usuários e do mercado. Dessa forma, esta pesquisa contribui para preencher uma lacuna importante na área, fornecendo um instrumento prático e validado, a BiblioCheck, que pode ser incorporado no ciclo de desenvolvimento e avaliação dessas bibliotecas digitais móveis, promovendo melhorias contínuas e o aprimoramento da experiência do usuário.
|
|
|
KARLA FELICIA CARVALHO DA SILVA
|
|
|
Impacto das técnicas de equilíbrio de classes na privacidade: uma análise dos ataques de inferência de
associação
|
|
|
Fecha : 29-ago-2025
|
|
|
Mostrar Resumen
|
|
|
O uso de modelos de aprendizado de máquina treinados com conjuntos de dados desequilibrados que contêm informações confidenciais tem levantado preocupações em matéria de privacidade. Uma dessas preocupações é a vulnerabilidade ao ataque de inferência de associação (Membership Inference Attack - MIA), que revela se um ponto de dados específico foi ou não utilizado para treinar um modelo. Neste contexto, uma área que tem sido negligenciada é se o método para lidar com o desequilíbrio de classes para treinar classificadores com algoritmos de aprendizagem supervisionada padrão que esperam um cenário com classes equilibradas aumenta o vazamento de informações sensíveis. Para preencher esta lacuna, realizámos uma série de avaliações empíricas de MIA com conjuntos de dados desequilibrados do mundo real para avaliar esta questão. Os nossos resultados mostram que os métodos para garantir o equilíbrio do classificador podem aumentar significativamente o desempenho dos ataques MIA. Isto tem implicações para os cientistas que estudam as defesas contra ataques nestes cenários com conjuntos de dados desequilibrados.
|
|
|
INEZ CAVALCANTI DANTAS
|
|
|
A Janela de Tempo Ideal: Otimizando Indicadores Bibliométricos para Prever o Sucesso de Curto Prazo de Pesquisadores
|
|
|
Fecha : 30-jul-2025
|
|
|
Mostrar Resumen
|
|
|
Prever o sucesso de um pesquisador por meio da avaliação do sucesso de suas publicações é um tópico importante que vem atraindo cada vez mais atenção na comunidade científica. No entanto, nesse contexto, não existem estudos abrangentes que forneçam o tamanho ideal da amplitude da janela para a captura de publicações como base para o cálculo de preditores. Neste estudo, estamos interessados em como janelas temporais curtas ou longas usadas como base para o cálculo de índices bibliométricos preditivos afetam a precisão do classificador que categoriza os pesquisadores entre aqueles com publicações recentes bem-sucedidas e outros pesquisadores. Usando o conjunto de dados da American Physical Society (APS), comparamos o desempenho dos classificadores. Usamos validação cruzada de 10 folds para determinar o classificador mais preciso em ambos os cenários descritos acima. Nós encontramos que uma avaliação mais abrangente dos cientistas é necessária sugerindo que uma janela longa supera uma janela curta.
|
|
|
JOAO PEDRO CAVALCANTI AZEVEDO
|
|
|
Explorando Métodos de Aprendizado Semi-supervisionado e Inteligência Artificial Generativa na Identificação de Ideação Suicida em Textos Não-Clínicos
|
|
|
Fecha : 30-jun-2025
|
|
|
Mostrar Resumen
|
|
|
O suicídio continua sendo um grave problema de saúde pública em todo o mundo, e a
identificação precoce da IS é fundamental para a prevenção de casos fatais. Neste contexto,
o presente trabalho teve como objetivo aprimorar o sistema Boamente, uma ferramenta
baseada em IA desenvolvida para apoiar PSMs na detecção e monitoramento da IS em
textos não clínicos escritos em PT-BR. O Boamente opera por meio da coleta de textos dos
usuários via um teclado virtual em dispositivos móveis, que os envia a uma plataforma web
para análise automática. Para tornar o sistema mais preciso e confiável, foram conduzidos
dois estudos complementares. No primeiro estudo, buscou-se melhorar o desempenho do
modelo de classificação do Boamente por meio da aplicação de técnicas de ASSL com foco
em AET. Novos dados foram coletados e diferentes abordagens foram testadas, resultando
em uma evolução da acurácia entre 2,39% e 4,30% em relação ao modelo base, com destaque
para o método self-learning, que apresentou o melhor desempenho geral. Esses avanços
reforçam o potencial da combinação entre dados rotulados e não rotulados no treinamento
de modelos para problemas sensíveis como a detecção de IS. No segundo estudo, propôs-se
a expansão da arquitetura do Boamente com a incorporação de um módulo gerador de
explicações, utilizando engenharia de prompt com LLMs. A proposta teve como foco
aumentar a interpretabilidade do sistema, permitindo que os PSMs compreendam as razões
pelas quais um texto foi classificado como contendo ou não IS. Para isso, foi realizada uma
avaliação quantitativa com diferentes LLMs, na qual o modelo Qwen 2.5 (14B) obteve
o melhor desempenho em AUC (0,9898), enquanto os modelos Qwen 2.5 de 3B e 7B
apresentaram os melhores valores de recall, métrica crítica para evitar falsos negativos em
contextos clínicos. Em paralelo, conduziu-se uma avaliação qualitativa com especialistas
de diferentes áreas (ciência da computação, linguística e psicologia), que consideraram
as explicações geradas pelo modelo LLaMA 3.1 (8B) como as mais coerentes, claras e
úteis para fins interpretativos. Os resultados obtidos demonstram que a integração de
métodos de ASSL com LLMs explicativos pode elevar significativamente a qualidade do
Boamente, tanto em termos de desempenho técnico quanto de confiabilidade percebida
pelos profissionais que o utilizam. Além disso, a geração de explicações tem o potencial de
fortalecer a confiança dos usuários no sistema de IA, prevenindo uma aceitação cega das
predições e promovendo uma tomada de decisão mais crítica e embasada. Este trabalho
contribui, portanto, para o desenvolvimento de sistemas de IA mais transparentes, eficientes
e sensíveis às demandas da saúde mental, especialmente no contexto da prevenção ao
suicídio no Brasil.
|
|
|
IGOR BEZERRA REIS
|
|
|
Um Método Baseado em Grandes Modelos de Linguagem Generativos para a Análise de Similaridades entre Marcas no Contexto Brasileiro
|
|
|
Fecha : 22-abr-2025
|
|
|
Mostrar Resumen
|
|
|
Uma marca tem o objetivo de identificar, de forma única e distintiva, os produtos e serviços
oferecidos por uma empresa. Ela constitui um importante ativo intangível, atuando como instrumento fundamental para impedir práticas de concorrência desleal e fortalecer o posici-
onamento competitivo das empresas no mercado. Contudo, o crescente número de pedidos
de registro de marcas submetidos ao Instituto Nacional de Propriedade Intelectual (INPI)
tem gerado desafios significativos, incluindo aumento no tempo de análise, inconsistências
nas decisões e maior complexidade na identificação de conflitos entre marcas. Diante desse
cenário, métodos automatizados para a análise de similaridade entre marcas tornam-se
essenciais para aprimorar a eficiência, confiabilidade e agilidade dos processos realizados
pelo instituto. Neste contexto, esta dissertação propõe um método baseado em Modelos
de Linguagem de Grande Escala (LLMs) para classificar e explicar a similaridade entre
marcas nominativas, considerando os critérios fonético, ideológico, distintivo e mercadoló-
gico adotados pelo INPI. Para alcançar esse objetivo, o método foi estruturado em duas
etapas principais: (1) desenvolvimento de um modelo classificador, capaz de identificar
rapidamente e com precisão conflitos entre marcas; e (2) desenvolvimento de um modelo
explicador, responsável por fornecer explicações detalhadas sobre os motivos pelos quais
duas marcas são consideradas similares ou não. Para desenvolver este método proposto, foi
criado um Conjunto de Dados de Arquivo de Marcas Conflitantes (do inglês, Conflicting
Marks Archive Dataset - CMAD), composto por casos reais de conflitos entre marcas
extraídos das publicações oficiais do INPI. Diferentes LLMs foram avaliados quanto à pre-
cisão na classificação dos conflitos entre marcas e na geração de explicações fundamentadas
sobre os casos analisados, sendo essas avaliações validadas por especialistas em Propriedade
Intelectual (PI). Os resultados demonstraram que alguns dos modelos avaliados obtiveram
desempenho expressivo, com acurácia próxima a 99%, F1-score superior a 98% e AUC
acima de 99% na classificação dos conflitos. Além disso, as explicações fornecidas pelos
modelos foram avaliadas por especialistas com média superior a 4, em uma escala de 0 a 5,
demonstrando clareza e alinhamento com os critérios estabelecidos pelo INPI. Portanto,
este estudo apresenta uma contribuição para a análise automatizada de similaridade entre
marcas, destacando o potencial dos LLMs na otimização e aprimoramento dos processos
relacionados à PI, reduzindo a subjetividade inerente à análise manual e ampliando a trans-
parência nas decisões institucionais, possibilitando democratizar o acesso à proteção de
marcas, especialmente beneficiando pequenas e médias empresas que enfrentam limitações
financeiras ou técnicas, contribuindo diretamente para a redução de custos operacionais,
prevenção de litígios de marcas e aceleração dos processos decisórios.
|
|
|
ALISON CORREA MENDES
|
|
|
Detecção de Dentes e Classificação de Patologias Dentárias em Imagens de Radiografias Panorâmicas Utilizando Aprendizado Profundo
|
|
|
Fecha : 10-abr-2025
|
|
|
Mostrar Resumen
|
|
|
A radiografia panorâmica desempenha um papel fundamental no diagnóstico e planejamento odontológico. No entanto, sua interpretação pode estando sujeita a erros devido a fatores como fadiga, estresse e experiência do profissional. Este trabalho propõe um método baseado em aprendizado profundo para a detecção automática de dentes e classificação de patologias bucais em imagens de radiografias panorâmicas. Foram avaliadas diferentes arquiteturas de redes neurais convolucionais para ambas as tarefas. Na detecção de dentes, a YOLOv8x apresentou melhores resultados, com mAP50 de 0,945 e mAP50-95 de 0,578. Na classificação de patologias bucais, a DenseNet121 obteve um F1 Score de 0,854, demonstrando uma boa relação entre identificação correta e precisão ao evitar falsos positivos. Além disso, a abordagem combinada YOLOv8x + DenseNet121 superou a YOLOv8x realizando ambas as tarefas diretamente, alcançando um F1 Score de 0,6014 contra 0,433 da YOLOv8x. Os resultados indicam que a estratégia de dividir o processo em duas etapas melhora significativamente a identificação de patologias em radiografias panorâmicas, tornando o diagnóstico odontológico assistido por computador mais eficiente. Essa abordagem tem o potencial de reduzir o tempo de análise e minimizar erros humanos.
|
|
|
BRUNO CARVALHO DA SILVA
|
|
|
ReqCluster4IoT: Um método de Agrupamento de Requisitos para aplicações de IoT
|
|
|
Fecha : 09-abr-2025
|
|
|
Mostrar Resumen
|
|
|
A Engenharia de Requisitos é uma importante etapa do ciclo de vida de desenvolvimento
de software, visando que o produto final atenda às necessidades dos stakeholders. Em
projetos de software, os requisitos são frequentemente escritos em linguagem natural não
estruturada e organizados em documentos de especificação de requisitos. Tal característica
oferece praticidade no momento da criação do documento, contudo torna a análise
manual difícil e demorada, sobretudo em projetos com grande número de requisitos.
Contextos contemporâneos de software, como Internet das Coisas (do inglês, Internet
of Things ou IoT), tornam necessário que o processo de desenvolvimento de software
seja repensado continuamente. A análise de requisitos em IoT é desafiadora devido à
alta diversidade de elementos presentes nesse domínio complexo. Nestas circunstâncias,
uma abordagem que pode dar suporte para a análise destes requisitos é a utilização
de algoritmos de agrupamento, para agrupá-los em grupos de contextos similares. Tal
agrupamento pode ajudar na compreensão do sistema a ser projetado. Foi proposto então
o ReqCluster4IoT, um método de agrupamento de requisitos funcionais para aplicações de
IoT. O ReqCluster4IoT está fundamentado em uma análise exploratória da literatura para
identificar características de IoT e também em experimentos em classificação de requisitos
e em similaridade semântica de textos. Para prover melhores índices na classificação e
na computação de similaridade semântica, foram desenvolvidos dois conjuntos de dados,
a Promise+ e o ReqFuncSimDataset. Os experimentos demonstraram a superioridade
de modelos baseados em Transformers em detrimento as abordagens tradicionais. O
método proposto foi avaliado quanto à sua aceitação, considerando sua utilidade. Para
isso, foi conduzida uma pesquisa de opinião e um grupo focal. A pesquisa opinião visava
obter a aceitação de 10 desenvolvedores de software para IoT. Por sua vez, o grupo
focal foi utilizado para obter mais informações sobre os resultados providos pelo método.
Os resultados mostraram que o método proposto consegue capturar com eficácia as
relações entre requisitos, para agrupá-los corretamente. Os resultados dos experimentos
demonstraram ainda que a ReqCluster4IoT pode auxiliar os profissionais no agrupamento
de requisitos de software para IoT, bem como a identificação de característica de IoT no
grupo pode dar mais informações para a análise destes requisitos. O método ainda obteve
altos índices de aceitação quanto à sua utilidade, ao seu potencial de redução de esforço e
intenção de uso.
|
|
|
MATHEUS LEVY DE LIMA BESSA
|
|
|
Detecção de Ovos de Parasito em Imagens de Microscópio via Ensemble de Detectores
|
|
|
Fecha : 02-abr-2025
|
|
|
Mostrar Resumen
|
|
|
As infecções parasitárias intestinais representam um problema de saúde global, especialmente em regiões com condições sanitárias precárias e zonas tropicais. Segundo a Organização Mundial da Saúde (OMS), estima-se que 1,5 bilhão de pessoas sejam afetadas por essas infecções. O diagnóstico manual, realizado por profissionais que analisam amostras microscópicas para identificar e classificar ovos parasitários, é demorado e suscetível a erros, principalmente devido à variação na experiência dos profissionais e à presença de estruturas parasitárias de pequenas dimensões ou parcialmente ocultas por impurezas. Para enfrentar esse desafio, este trabalho propõe uma metodologia baseada em um ensemble que combina uma arquitetura de detecção especializada com detectores genéricos refinados em um conjunto de imagens específico. A arquitetura personalizada, desenvolvida a partir da HRNet-W32, incorpora blocos residuais e composição de perdas intermediárias. Detectores como Cascade R-CNN, TOOD e CenterNet foram ajustados utilizando o conjunto de dados Chula-ParasitEgg11. A fusão das detecções foi realizada por meio da técnica Weighted Box Fusion, que integra resultados sem descartar potenciais identificações relevantes. A abordagem alcançou desempenho significativo, com F1 Score de 0,945 e mAP[0.5:0.95] de 0,868, demonstrando potencial para automatizar o diagnóstico com precisão e eficiência.
|
|
|
LUCAS REIS ABREU
|
|
|
Explorando as competências necessárias na jornada do Gerente de Produto
|
|
|
Fecha : 01-abr-2025
|
|
|
Mostrar Resumen
|
|
|
Dependendo da empresa, o papel do Gerente de Produto de software pode englobar
diferentes responsabilidades, mas os problemas enfrentados costumam ser os mesmos e
as habilidades necessárias para resolvê-los também. Esta pesquisa avalia os principais
problemas enfrentados por este papel, assim como as responsabilidades e habilidades
necessárias, a fim de estruturar a jornada deste profissional mediante estes três pilares.
Além disso, propõe-se criar uma diferença entre as responsabilidades do Gerente de Produto,
Dono do Produto e Gerente de Projeto, por serem papéis diferentes com atividades que são
semelhantes ou podem se complementar. Foi executada uma revisão terciária da literatura
a fim de verificar as lacunas existentes da área, elaborando-se assim um script de perguntas
para aplicação de entrevistas e questionários online, ambos executados com profissionais
da área. Como resultados, tem-se o mapeamento de competências do Gerente de Produto,
além de propor elementos que diferenciem os três papéis similares levantados. Além disso,
também obteve-se insights que não foram observados nos estudos secundários durante
a revisão literária. Esta pesquisa contribui para a visualização da jornada do Gerente
de Produto, oferecendo novos insights, compreensão de funções e diferenças entre este e
outros papéis presentes na área.
|
|
|
DANIEL MOREIRA PINTO
|
|
|
Segmentação Automática de Endometriose Profunda em Imagens de Ressonância Magnética Baseada em Aprendizado Profundo
|
|
|
Fecha : 17-mar-2025
|
|
|
Mostrar Resumen
|
|
|
A endometriose profunda ´e a doenc¸a caracterizada pela presenc¸a do
endom´etrio fora da cavidade uterina, causando agudo desconforto para as pessoas
afetadas. M´etodos nao invasivos baseados em imagem para a aferic¸ ao do
grau de evoluc¸ ao da doenc¸a sao eficazes mas custosos em tempo dos especialistas.
Este trabalho propoe um m´etodo autom´atico de segmentac¸ ao de lesoes
de endometriose em imagens de ressonancia magn´etica utilizando uma Swin-
Unet. O m´etodo alcanc¸ou uma precisao de 45, 6%, sensibilidade 61, 9%, dice
de 47, 7% e jaccard de 36, 2%. Foi segmentada com boa qualidade ao menos
uma imagem por paciente em 17 dos 18 pacientes utilizados para teste.
|
|
|
JOSE RIBAMAR DURAND RODRIGUES JUNIOR
|
|
|
HistAttentionNAS: Uma CNN construída via NAS para o diagnóstico do câncer do pênis usando imagens histopatológicas
|
|
|
Fecha : 27-feb-2025
|
|
|
Mostrar Resumen
|
|
|
O câncer de pênis (CP) é uma neoplasia rara que, embora pouco frequente em países desenvolvidos, apresenta incidência alarmante em determinadas regiões de países em desenvolvimento. Seu diagnóstico precoce é fundamental para melhorar o prognóstico e reduzir a necessidade de intervenções cirúrgicas mutiladoras. A análise histopatológica permanece como o padrão ouro para diagnóstico, porém envolve processos subjetivos que podem atrasar o laudo e gerar divergências entre especialistas. Nesse sentido, o aprendizado profundo tem se mostrado promissor ao agilizar e padronizar avaliações, auxiliando patologistas na identificação de padrões relevantes. Este trabalho propõe uma metodologia para a classificação de CP em imagens histopatológicas digitais. Inicia-se com a preparação dos dados, balanceando as classes por meio de transformações geométricas e aplicando diferentes técnicas de pré-processamento e perturbações de cor. Em seguida, um processo de Pesquisa de Arquitetura Neural é empregado para definir, de forma automatizada, a melhor combinação de blocos iniciais (stem) e mecanismos de atenção nos estágios principais (backbone) da rede, otimizando a extração de texturas e informações discriminativas. Nos experimentos realizados, as arquiteturas otimizadas apresentaram valores de F1-Score de 0,927 em 40x e 0,958 em 100x, confirmando a eficácia da estratégia. Comparações com trabalhos relacionados na mesma base mostram resultados competitivos, em particular na ampliação de 100x, mesmo sem o uso de grandes bases externas ou transferência de aprendizado. Conclui-se que o balanceamento de classes, a configuração do pré-processamento e aumento de representatividade, aliados à automação via NAS, potencializam o desempenho da classificação de câncer de pênis.
|
|
|
CHRISTIANO ANDERSON NEITZKE
|
|
|
Enhancing LGPD Compliance: A Specialized Checklist and Implementation Templates for Governmental Software Systems
|
|
|
Fecha : 21-feb-2025
|
|
|
Mostrar Resumen
|
|
|
A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece diretrizes para o tratamento
de dados pessoais. No entanto, compreender e implementar a LGPD apresenta desafios
significativos para analistas de requisitos, particularmente na identificação e operacionalização
de requisitos de privacidade. Esta dissertação adapta, avalia e aprimora o checklist LGPD-
Check para uso em organizações públicas. O LGPD-Check é um método projetado para
avaliar a conformidade de sistemas de software com os atributos de qualidade exigidos pela
LGPD, abrangendo categorias como transparência de dados, consentimento do usuário,
direitos do usuário, segurança de dados e responsabilidade do controlador. Aprimoramos
o checklist incorporando requisitos específicos exigidos pelo Tribunal de Contas da União
(TCU) e o aplicamos em uma organização governamental para avaliar sua eficácia. Nosso
estudo experimental envolveu oito profissionais de TI. Os resultados indicaram que o
checklist apoia efetivamente a detecção de defeitos em sistemas de software e levou a
melhorias do LGPD-Check. Além de atualizar itens e recomendações, desenvolvemos
templates para auxiliar os inspetores no uso do checklist. Esses templates fornecem
orientações sobre como tratar questões de não conformidade e implementar melhorias nos
sistemas avaliados. Posteriormente, aplicamos o LGPD-Check a dois sistemas reais de
uma instituição acadêmica federal, o que nos permitiu discutir os benefícios, desafios e
refinamentos necessários relacionados às recomendações e templates. Nossas descobertas
revelaram que 57,4% dos itens avaliados não atendiam aos padrões legais, indicando lacunas
substanciais nos processos e práticas de proteção de dados. O feedback do grupo focal
sugeriu que o checklist revisado e os templates auxiliam na identificação de problemas de
conformidade de software com a LGPD. Apesar de algumas limitações, como a necessidade
de mais estudos para generalizar os resultados e explorar aplicações em outros domínios,
nosso trabalho contribui para aprimorar a conformidade com a LGPD em sistemas de
software, particularmente no setor público.
|
|
|
CHRISTIANO ANDERSON NEITZKE
|
|
|
Enhancing LGPD Compliance: A Specialized Checklist and Implementation Templates for Governmental Software Systems
|
|
|
Fecha : 21-feb-2025
|
|
|
Mostrar Resumen
|
|
|
A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece diretrizes para o tratamento
de dados pessoais. No entanto, compreender e implementar a LGPD apresenta desafios
significativos para analistas de requisitos, particularmente na identificação e operacionalização
de requisitos de privacidade. Esta dissertação adapta, avalia e aprimora o checklist LGPD-
Check para uso em organizações públicas. O LGPD-Check é um método projetado para
avaliar a conformidade de sistemas de software com os atributos de qualidade exigidos pela
LGPD, abrangendo categorias como transparência de dados, consentimento do usuário,
direitos do usuário, segurança de dados e responsabilidade do controlador. Aprimoramos
o checklist incorporando requisitos específicos exigidos pelo Tribunal de Contas da União
(TCU) e o aplicamos em uma organização governamental para avaliar sua eficácia. Nosso
estudo experimental envolveu oito profissionais de TI. Os resultados indicaram que o
checklist apoia efetivamente a detecção de defeitos em sistemas de software e levou a
melhorias do LGPD-Check. Além de atualizar itens e recomendações, desenvolvemos
templates para auxiliar os inspetores no uso do checklist. Esses templates fornecem
orientações sobre como tratar questões de não conformidade e implementar melhorias nos
sistemas avaliados. Posteriormente, aplicamos o LGPD-Check a dois sistemas reais de
uma instituição acadêmica federal, o que nos permitiu discutir os benefícios, desafios e
refinamentos necessários relacionados às recomendações e templates. Nossas descobertas
revelaram que 57,4% dos itens avaliados não atendiam aos padrões legais, indicando lacunas
substanciais nos processos e práticas de proteção de dados. O feedback do grupo focal
sugeriu que o checklist revisado e os templates auxiliam na identificação de problemas de
conformidade de software com a LGPD. Apesar de algumas limitações, como a necessidade
de mais estudos para generalizar os resultados e explorar aplicações em outros domínios,
nosso trabalho contribui para aprimorar a conformidade com a LGPD em sistemas de
software, particularmente no setor público.
|
|