Evento Pesquisa de Destaque

Evento de incentivo à produção científica do CIn/UFPE

Anualmente, o Centro de Informática (CIn) da UFPE,  incentiva  os autores de produção científica em periódicos internacionais de primeira linha.


O Evento contará com palestras proferidas por professores destaque em produção científica, contemplando várias áreas de pesquisa do centro. Essas palestras são uma ótima oportunidade para os professores diretamente envolvidos divulgarem as suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn.


A qualidade da produção científica do CIn é um dos elementos essenciais da sua excelência, reconhecida nacional e internacionalmente. É politica da direção do CIn incentivar a divulgação dos resultados das pesquisas realizadas no centro nos melhores periódicos internacionais segundo os critérios do CA-CC da CAPES. O evento de premiação é um dos instrumentos dessa política.

Workshops edição de 2022

Edição 2022


A Coordenação de Pesquisa do Centro de Informática (CIn) da UFPE realizou o seu Evento Pesquisa de Destaque CIn 2022, visando o reconhecimento e destaque dos artigos de periódicos de alto nível produzidos por pesquisadores do Centro. O evento ocorreu na 03 de agosto de 2022, às 15h,  de maneira presencial no anfiteatro do CIn com transmissão ao vivo  pelo canal do CIn no youtube e você pode assistir pelo link.


O evento também contou com palestras de dois professores do CIn.  São elas:


Workshops edição de 2021

Edição 2021


A Coordenação de Pesquisa do Centro de Informática (CIn) da UFPE realizou o seu Evento Pesquisa de Destaque CIn, visando o reconhecimento e destaque dos artigos de periódicos de alto nível produzidos por pesquisadores do Centro. O evento ocorreu na terça-feira 28 de setembro de 2021, às 14h, e agraciou os 37 docentes do CIn que tenham publicado artigos com altos rankings no Qualis da Capes. O evento para os professores do CIn foi via plataforma Google Meet com transmissão ao vivo pelo canal do CIn no Youtube e você pode assistir no link


O evento também contou com palestras de três professores do CIn. São elas:

Hybrid systems for time series forecasting: state of the art and research challenges”, com o professor Paulo Salgado;

“Network Softwarization and Cloudification: Somes Challenges and Research Directions", com o professores Kelvin Lopes Dias;

"Data science without data scientists", com o professor Vinicius Garcia



Workshops edição de 2019

Palestrantes dos Workshops

Edição 2019

A edição 2019 do evento de premiação da produção científica do CIn/UFPE em 2018 em periódicos internacionais de primeira linha premiou

56 artigos envolvendo cerca de 35 docentes do centro.

Essa edição contou com palestras proferidas por 6 professores dos 35 premiados, contemplando várias áreas de pesquisa

do centro.  Essas palestras foram uma ótima oportunidade para os professores diretamente envolvidos divulgarem as

suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn. 

O evento aconteceu na sexta-feira, dia 7 de junho no anfiteatro do CIn com os seguintes palestrantes:


Adiel Teixeira de Almeida Filho

Possui graduação, mestrado e doutorado em Engenharia de Produção pela Universidade Federal de Pernambuco. Atualmente é Professor Associado no Centro de Informática (Departamento de Ciência da Computação) da Universidade Federal de Pernambuco e atua como membro (pesquisador) do INCT-INSID Instituto Nacional de Sistemas de Informação e Decisão. Possui interesse principalmente em temas relacionados a Gestão Econômica e Financeira, Análise de Decisão, Preference Learning, Análise de Risco, Pesquisa Operacional, Gestão da Produção, Operações e Manutenção..

Título: Algoritmos e ferramentas computacionais para redução do esforço cognitivo no apoio a decisão para aplicações de Analytics prescritivas

Resumo: De uma forma genérica aplicações de Analytics estão divididas em 3 tipos: descritiva, preditiva e prescritiva. Esta apresentação abordará contribuições para redução do esforço cognitivo na parametrização de modelos prescritivos de Analytics. Serão discutidas as contribuições acadêmicas que seguem: (i) o uso de informações parciais para parametrização de modelos de escolha e ranking, e a escolha da melhor metodologia de parametrização para o método PROMETHEE I e II; (ii) a proposta de um novo método PROMETHEE com aprendizagem de preferências para inferência de parâmetros; (iii) a proposta de um novo método TOPSIS, o FTOPSIS-Class; (iv) um framework para seleção de portfólios de investimento em Private Banking.

Bernadette Farias Lóscio

Bernadette Farias Lóscio é professora Adjunto do Centro de Informática da Universidade Federal de Pernambuco (CIn/UFPE). Atualmente, é Diretora de Informação da Pró-Reitoria de Informação, Comunicação e Tecnologia da UFPE. Possui Doutorado em Ciência da Computação pelo Centro de Informática da Universidade Federal de Pernambuco (CIn/UFPE) e mestrado em Ciência da Computação pela Universidade Federal do Ceará. Suas principais áreas de atuação são Dados Abertos e Dados na Web. Nos últimos anos, tem contribuído fortemente com essas áreas, ministrando cursos e palestras, realizando consultorias, coordenando projetos e orientando alunos de graduação e pós-graduação. Recentemente, trabalhou como editora da recomendação do W3C "Data on the Web Best Practices", produzido por um dos grupos de trabalhos do W3C. Também tem interesse nas áreas de Web Semântica, Integração de Dados e Big Data

Título: Compartilhamento de Dados na Web: Soluções e Desafios

Resumo: A grande quantidade de dados disponível na Web, juntamente com a facilidade de acesso e representação desses dados, criam novos desafios tanto para quem deseja publicar e compartilhar dados na Web quanto para os que desejam usar tais dados. De modo geral, não existe um conhecimento prévio entre os interesses de quem publica os dados, os produtores, e os interesses de quem consome os dados, os consumidores. Ao longo dos anos, várias soluções foram desenvolvidas objetivando a publicação e o compartilhamento de dados na Web. No entanto, as soluções de publicação de dados atuais, que são responsáveis por prover catálogos de dados e manter a interface de comunicação entre os produtores e consumidores, não implementam boa parte das boas práticas propostas pelo W3C. Além disso, outros aspectos relacionados ao compartilhamento de dados na Web necessitam de uma discussão mais aprofundada, bem como do provimento de soluções que facilitem tal compartilhamento. Neste contexto, temos desenvolvido pesquisas que abordam temas relacionados a ecossistemas de dados, ao modelo de ciclo de vida dos dados e à governança de dados na Web. Além disso, temos trabalhado na especificação e implementação de um Sistema Gerenciador de Dados na Web, a fim de preencher as lacunas deixadas pelas soluções de compartilhamento de dados existentes. Nesta apresentação, serão discutidos os principais resultados obtidos pelo nosso grupo de pesquisa, juntamente com alguns desafios de pesquisa na área de compartilhamento de dados na Web.

Cleber Zanchettin

Possui graduação em Ciência da Computação pela Universidade do Oeste de Santa Catarina (2002), mestrado em Ciências da Computação pela Universidade Federal de Pernambuco (2004) e doutorado em Ciências da Computação pela Universidade Federal de Pernambuco (2008). Atualmente é Professor Associado do Centro de Informática da Universidade Federal de Pernambuco. Tem experiência na área de Ciência da Computação, atuando principalmente nos seguintes temas: deep learning, redes neurais artificiais, nariz artificial, sistemas híbridos inteligentes e otimização. Associado da Sociedade Brasileira de Computação (SBC)

Título: Aprendizagem Profunda

Resumo: Deep Learning ou Aprendizagem Profunda é um campo em evidência na área de Aprendizagem de Máquina que tem como base algoritmos para representação de dados em diferentes níveis de abstração. Essas representações envolvem uma hierarquia de características ou conceitos em que as representações de alto nível são definidas a partir de níveis mais baixos. O tipo de aprendizado envolvido pode ser supervisionado, não-supervisionado ou semi-supervisionado. Estas técnicas têm sido aplicadas com sucesso em diversas tarefas como visão computacional, reconhecimento automático de fala, processamento de linguagem natural, em vários casos podendo ser considerada o estado da arte atual.
Apesar dos grandes progressos e resultados, muitos desafios permanecem, aspectos como a otimização de parâmetros em larga escala, modelagem de dados temporais com dependências de longo prazo, modelagem generativa, inferência bayesiana eficiente, modelos e dados multimodais e representações de aprendizagem precisam de mais contribuições.
Nesta palestra, apresentaremos algumas das contribuições que os alunos do CIn têm feito nos últimos anos nesta área de pesquisa. Alguns dos tópicos abordados são detecção de bordas e segmentação no processamento de imagens, reconhecimento de fala, visão computacional, processamento de linguagem natural, detecção de anomalias e aprendizagem por transferência.

Hermano Perrelli de Moura

Atualmente é Professor do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE). Tem pós-doutorado pela Universidade de Maryland em College Park, EUA (2011). PhD em Ciência da Computação pela Universidade de Glasgow, Escócia (1993). Mestrado em Informática pela UFPE (1989). Graduado em Engenharia Eletrônica pela UFPE (1982). É certificado PMP (2003) pelo Project Management Institute. Atua na área de Computação, com ênfase em Engenharia de Software e Sistemas de Informação, desenvolvendo pesquisas e projetos, principalmente, nas seguintes linhas: gestão de projetos, gestão de projetos de software, estudos do futuro, processo de desenvolvimento de software, gestão da TI e empreendedorismo em informática. Tendo iniciado suas atividades na área de informática em 1979, desenvolve atualmente atividades de ensino e pesquisa, a nível de graduação e pós-graduação, além de projetos de cooperação com a indústria e de gestão universitária. Foi Pró-reitor de Planejamento, Orçamento e Finanças da UFPE (2011-2015).

Título: Software Project Framework: Progressos Recentes e Desenvolvimentos Futuros

Resumo: Nessa palestra estaremos falando sobre projetos e gerenciamento de projetos de software. Introduziremosbrevemente o Software Project Framework (SPF) e como ele tem guiado a pesquisa desenvolvida no GP2,o grupo de pesquisa em gestão de projetos do CIn. Para finalizar mostraremos a conexão do SPF com os trabalhos desenvolvidos pelo GP2, incluindo os três artigos premiados pelo CIn em 2018.

Leopoldo Motta Teixeira

Atualmente é professor adjunto do Centro de Informática da Universidade Federal de Pernambuco. Possui graduação em Engenharia da Computação pela Universidade de Pernambuco (2007) e mestrado (2010) e doutorado (2014) em Ciência da Computação pela Universidade Federal de Pernambuco. Durante o doutorado, foi orientado pelos professores Paulo Borba (UFPE) e Rohit Gheyi (UFCG), com período sanduíche na Universidade de Waterloo, sob supervisão do Prof. Krzysztof Czarnecki. Tem experiência na área de Ciência da Computação, com ênfase em Engenharia de Software, atuando principalmente nos seguintes temas: Linhas de Produtos de Software, Evolução de Software, Refactorings e Métodos Formais

Título: All roads lead to Rome: Commuting strategies for product-line reliability analysis

Resumo: Software product line engineering is a means to systematically manage variability and commonality in software systems, enabling the automated synthesis of related programs (products) from a set of reusable assets. However, the number of products in a software product line may grow exponentially with the number of features, so it is practically infeasible to quality-check each of these products in isolation. There is a number of variability-aware approaches to product-line analysis that adapt single-product analysis techniques to cope with variability in an efficient way. Such approaches can be classified along three analysis dimensions (product-based, family-based, and feature-based), but, particularly in the context of reliability analysis, there is no theory comprising both (a) a formal specification of the three dimensions and resulting analysis strategies and (b) proof that such analyses are equivalent to one another. The lack of such a theory hinders formal reasoning on the relationship between the analysis dimensions and derived analysis techniques. We formalize seven approaches to reliability analysis of product lines, including the first instance of a feature-family-product-based analysis in the literature. We prove the formalized analysis strategies to be sound with respect to the probabilistic approach to reliability analysis of a single product. Furthermore, we present a commuting diagram of intermediate analysis steps, which relates different strategies and enables the reuse of soundness proofs between them.

Roberto Souto Maior de Barros

Possui graduação em Ciencia da Computacao pela Universidade Federal de Pernambuco (1984), mestrado em Ciências da Computação pela Universidade Federal de Pernambuco (1988) e doutorado em PhD in Computing Science - The University of Glasgow (1994). Atualmente é professor titular da Universidade Federal de Pernambuco. Tem experiência na área de Ciência da Computação, com ênfase em Engenharia de Software, atuando principalmente nos seguintes temas: xml, machine learning, data streams, and concept drifts.

Título: Advances in Data Stream Mining with Concept Drift

Resumo: Online learning regards extracting information from large quantities of data flowing rapidly and continuously (data streams), which are usually affected by changes in the data distribution (concept drift). Concept drift detection methods are software that mostly attempt to estimate the drift positions in order to substitute the base learner after these changes and ultimately improve accuracy. Ensembles of classifiers have also been proposed to address the problem of mining data streams, with or without explicit drift detection, and the ensembles that explicitly detect the drifts, sometimes, use concept drift detectors as auxiliary methods.
In the last few years, my students and I have proposed a number of new drift detection methods (RDDM, WSTD, FTDD, etc.), an ensemble of detectors (DDE), and ensemble algorithms (ADOB, BOLE) configurable with auxiliary concept drift detectors, aimed at improving the detections of the drifts and/or the accuracy of current methods in data streams containing concept drift.
Large-scale comparisons of concept drift detectors and of ensemble algorithms (configurable with detectors) for mining data streams with concept drift were also performed using a large number of artificial datasets and two different base classifiers (Naive Bayes and Hoeffding Trees), aimed at measuring how good the methods are and also at verifying/challenging common beliefs in the area.
Several of the proposed methods are efficient in at least some scenarios and some of them are excellent all-round methods; e.g. we claim RDDM and BOLE are currently top methods, especially when used with Naive Bayes as base classifier. Another result obtained is the empirical confirmation that the best detectors in terms of accuracy are not necessarily those that detect the existing drifts closer to the correct positions, only detecting these (a common wisdom). 

Workshops edição de 2018

Palestrantes dos Workshops

Edição 2018

A edição 2018 do evento de premiação da produção científica do CIn/UFPE em 2017 em periódicos internacionais de primeira linha premiou 60 artigos envolvendo cerca de 38 docentes do centro.

Essa edição contou com palestras proferidas por 6 professores dos 38 premiados, contemplando várias áreas de pesquisa do centro.  Essas palestras serão uma ótima oportunidade para os professores diretamente envolvidos divulgarem as suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn. O evento acontece na sexta-feira, dia 26 de maio no anfiteatro do CIn com os seguintes workshops

Confira a biografia dos palestrantes e o resumo de suas palestras:

Nivan Roberto Ferreira Junior

Atualmente é professor Adjunto do Centro de Informática da Universidade Federal de Pernambuco. Realiza pesquisa nas áreas de visualização de dados (information visualization e visual analytics) com ênfase em visualização de interativa de dados espaço-temporais. Possui graduação em Ciência da Computação pela Universidade Federal de Pernambuco (2009), mestrado em Matemática pela Universidade Federal de Pernambuco (2010) e doutorado em Computer Science - New York University Polytechnic School of Engineering (2015). Durante seu doutorado realizou estágios de pesquisa no AT&T Labs Research e na Microsoft Research. Realizou atividades de Pós-doutorado (post doctoral scholar) na University of Arizona (setembro 2015 - junho 2016).

Título: Gaussian Cubes: Real-Time Modeling for Visual Exploration of Large Multidimensional Datasets

Resumo: Recently proposed techniques have finally made it possible for analysts to interactively explore very large datasets in real time. However powerful, the class of analyses these systems enable is somewhat limited: specifically, one can only quickly obtain plots such as histograms and heatmaps. In this paper, we contribute Gaussian Cubes, which significantly improves on state-of-the-art systems by providing interactive modeling capabilities, which include but are not limited to linear least squares and principal components analysis (PCA). The fundamental insight in Gaussian Cubes is that instead of precomputing counts of many data subsets (as state-of-the-art systems do), Gaussian Cubes precomputes the best multivariate Gaussian for the respective data subsets. As an example, Gaussian Cubes can fit hundreds of models over millions of data points in well under a second, enabling novel types of visual exploration of such large datasets. We present three case studies that highlight the visualization and analysis capabilities in Gaussian Cubes, using earthquake safety simulations, astronomical catalogs, and transportation statistics. The dataset sizes range around one hundred million elements and 5 to 10 dimensions. We present extensive performance results, a discussion of the limitations in Gaussian Cubes, and future research directions.

Ricardo Bastos Cavalcante Prudêncio

Possui Bacharelado em Computação pela Universidade Federal do Ceará (1999), mestrado em Ciências da Computação pela Universidade Federal de Pernambuco (2002), doutorado em Ciências da Computação pela Universidade Federal de Pernambuco (2004) e pós-doutorado pela Universidade de Bristol (Inglaterra - 2015). Atualmente é professor associado e membro da Pós-Graduação em Ciências da Computação do Centro de Informática -UFPE. Tem experiência nas áreas de Ciências da Computação e da Informação, atuando principalmente nos seguintes temas: redes neurais artificiais, aprendizado de máquina, sistemas inteligentes híbridos, análise de redes sociais, sistemas de recomendação e mineração de textos

Título: A hybrid hyper-heuristic for algorithm design

Resumo: Designing an algorithm to solve a given problem is a challenging task due to the variety of possible design choices and the lack of clear guidelines on how to choose and/or combine them. Optimization and machine learning techniques have been used to make the algorithm design process more independent on human intervention. Hyper-heuristic approaches, in particular, have been proposed to search the space of algorithms/heuristics and/or their components, and iteratively combine and adapt them for specific problems. Although flexible to produce customized algorithms, hyper-heuristics can be extremely costly procedures. In this presentation, we will introduce a novel hybrid hyper-heuristic (H3AD), which combines an automated algorithm selection approach with a generative hyper-heuristic. This combination intends to reduce the cost of providing an algorithm for a new input problem by reusing algorithms previously built by hyper-heuristics to solve similar problems. H3AD was evaluated in a case study to optimize the design of Particle Swarm Optimization algorithms in unconstrained continuous optimization problems. The proposed method is flexible to be adapted to other case studies in algorithm design.

Simone Cristiane dos Santos

Professora e pesquisadora do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE). Leciona disciplinas em cursos de graduação e pós-graduação, nas áreas de Engenharia de Software (Gestão de Projetos) e Sistemas de Informação (Arquitetura Corporativa, Sistemas de Gestão e e-Business). Atualmente é tutora do grupo PET-Informática do CIn - UFPE, programa nacional de educação tutorial. CONSULTORIA Líder do grupo NEXT (iNnovative Educational eXperience in Technology), exerce atividades de consultoria em abordagens inovadoras de aprendizagem no ensino de Computação, em particular, quanto à abordagem PBL (Problem-Based Learning). FORMAÇÃO Doutora em Ciência da Computação na área de e-Business (2002), Mestre em Ciência da Computação na área de Engenharia de Software (1995) e Bacharel em Ciência da Computação (1992), todos pela Universidade Federal de Pernambuco (UFPE). Certificada PMP (Project Management Professional) pelo PMI (Project Management Institute) desde 2006

Título: PBL-SEE: Um Modelo de Avaliação Autêntica para a Educação de Engenharia de Software na Abordagem PBL

Resumo: A disciplina de “Engenharia de Software” em Computação tem gerado grandes desafios para seus educadores. As exigências do mercado por soluções cada vez mais sofisticadas, desenvolvidas em curtos ciclos de desenvolvimento, com um alto envolvimento de clientes e usuários demandam por um ambiente de aprendizagem não somente prático, mas fiel à realidade de mercado. Isto é, um ambiente que permita que seus estudantes vivenciem de forma real o processo de desenvolvimento de software, suas restrições gerenciais (escopo, tempo, custos, riscos), as limitações tecnológicas e os conflitos de interesses entre seus stakeholders, sejam eles integrantes do time de software ou clientes das soluções.  Esta preocupação tem sido refletida nos principais currículos de referência na área, como o ACM/IEEE Computer Science Curricula (2014) e o Software Engineering Curricula (2015). No primeiro, características ditas de “nível amplo” ressaltam a necessidade do desenvolvimento de competências como resolução de problemas, experiência em projetos e características interpessoais, tais como habilidades de comunicação e organização. O segundo reforça a necessidade da competência de resolução de problemas próprio da engenharia, focada na análise de alternativas de soluções antes de escolher a mais apropriada para um problema e contexto.
Como uma alternativa de educação baseada em condições e contextos reais, a abordagem de aprendizagem baseada em problemas (do inglês, Problem-Based Learning ou, simplesmente, PBL) tem sido aplicada com sucesso ao ensino de engenharia de software, graças aos seus princípios baseados no trabalho em grupo, na resolução de problemas reais e em ambientes de aprendizagem que correspondem à realidade do mercado de trabalho. No entanto, a falta de metodologias e processos bem definidos para a implementação da abordagem PBL representa um grande desafio.  A abordagem exige grande flexibilidade e dinamismo de todos os envolvidos, seja no mapeamento de conteúdo, no desempenho do professor ou no acompanhamento de como os alunos devem lidar com a resolução de problemas, exigindo planejamento e gerenciamento rigorosos do processo de ensino e aprendizagem.
Este artigo sugere que processos de gestão podem ajudar na implementação do PBL ao longo de seu ciclo de vida (planejamento, implementação, monitoramento e aprimoramento) e propõe um modelo de avaliação com este objetivo, chamado PBL-SEE, para uso na educação em engenharia de software. O PBL-SEE é composto por três níveis: (1) Avaliação Discente; (2) Avaliação da Metodologia de aprendizagem PBL e; (3) Avaliação Docente. A partir da discussão de dois exemplos de seu uso, é possível entender como o modelo pode ser aplicado e como as informações resultantes podem ser usadas para tornar as iniciativas de PBL "autênticas" e em conformidade com seus princípios.

Francisco de Assis Tenorio de Carvalho

Professor Titular do Centro de Informatica da Universidade Federal de Pernambuco, é graduado em Engenharia Elétrica (1980) e Mestre em Ciências e Tecnologias Nucleares (1984) ambos pela Universidade Federal de Pernambuco . Obteve o DEA 105 Informatique des Organisations (1988) e o Doctorat en Informatique des Organisations (1992) ambos pela Universite de Paris-IX Dauphine .Foi Coordenador do Programa de Pós-Graduação em Ciência da Computação do CIn-UFPE entre 08/2005 e 08/2009 com destaque para a conquista pelo programa do nível 6 na avaliação triênal da CAPES e a efetiva implantação do mestrado profissional. Foi membro do Conselho Coordenador de Ensino, Pesquisa e Extensão da UFPE, das Câmaras de Pesquisa e Pós-Graduação da UFPE e do Conselho Universitário da UFPE entre 07/2005 e 07/2012. Foi membro do CA de Ciências Exatas da FACEPE entre 07/2005 e 09/2009. É membro do Comitê de Assessoramento de Ciência da Computação (CA-CC) do CNPq. Foi eleito para o conselho do IASC (International Association for Statistical Computing) para o período 2009-2013. Sua área de pesquisa é Computação Inteligente, atuando principalmente nos seguintes temas: Symbolic Data Analysis, Clustering Analysis, Machine Learning. Publicou cerca de 190 trabalhos em periódicos especializados e eventos

Título: Avanços recentes em regressão linear e agrupamento de dados

Resumo: Essa apresentação abordará alguns progressos recentes realizados no âmbito de aprendizado de máquina relativos as tarefas de regressão linear e agrupamento de dados:
- A robust regression method based on exponential-type kernel functions. The paper provides a robust regression method that penalize bad fitted observations (outliers)  through the use of exponential-type kernel functions in the parameter estimator iterative process. Thus, the weights given to each observation are updated at each iteration in order to optimize a suitable objective function. The convergence of the parameter estimation algorithm is demonstrated and it has a low computational cost. Its performance is sensitive to the choice of the initial values for the vector of parameters of the regression model as well as to the bandwidth parameter estimator of the kernel functions. 

- Fuzzy clustering of interval-valued data with City-Block and Hausdorff distances. The paper provides a fuzzy c-means clustering algorithm based on suitable adaptive City-Block and Hausdorff distances with the purpose to cluster interval-valued data. This fuzzy c-means clustering algorithm optimizes explicitly an objective function by alternating three steps aiming to compute the fuzzy cluster representatives, the fuzzy partition, as well as relevance weights for the interval-valued variables. Indeed, most often conventional fuzzy c-means clustering algorithms consider that all variables are equally important for the clustering task. However, in real situations, some variables may be more or less important or even irrelevant for clustering. Due to the use of adaptive City-Block and Hausdorff distances, the paper proposes a fuzzy c-means clustering algorithm that tackles this problem with a step where a relevance weight is automatically learned for each interval-valued variable. Additionally, various tools for the fuzzy partition and fuzzy cluster interpretation of interval-valued data provided by this algorithm is also presented.

- Fuzzy clustering of distributional data with automatic weighting of variable components. Distributional data, expressed as realizations of distributional variables, are new types of data arising from several sources. This paper provides some new fuzzy c-means algorithms for data described by distributional variables. The algorithms use the L2 Wasserstein distance between distributions as dissimilarity measure. Usually, in fuzzy c-means, all the variables are considered equally important in the clustering task. However, some variables could be more or less important or even irrelevant for this task. Considering a decomposition of the squared L2 Wasserstein distance, and using the notion of adaptive distance, we propose some algorithms for automatically computing relevance weights associated with variables, as well as with their components. This is done for the whole dataset or cluster-wise. Relevance weights express the importance of each variable, or of each component, in the clustering process acting also as a variable selection method.

Jaelson Freire Brelaz de Castro

Possui graduação em Engenharia Elétrica pela Universidade Federal de Pernambuco (1982), mestrado em Informática pela Universidade Federal de Pernambuco (1986) e doutorado em Computing - Imperial College - University of London (1991). O Professor Titular Jaelson Castro é um dos fundadores da área de Engenharia de Requisitos no Brasil Tem participação ativa nessa área; quer como membro do corpo editorial do Requirements Engineering Journal da Springer, quer como membro do comitê de programa da conferência internacional de requisitos (RE). Ele lidera o Laboratório de Engenharia de Requisitos (LER ) do CIn, possuindo larga experiência na área de Engenharia de Software e Requisitos. Já orientou mais de quatro dezenas de dissertações e teses. Sua produção científica inclui mais de duzentas publicações em periódicos, livros, capítulos de livros e artigos em eventos científicos nacionais e internacionais. Atuou como coordenador do Programa de Pós-graduação da UFPE no período 2003-2005. Também foi presidente da Comissão Especial de Engenharia de software da SBC (por três mandatos). Entre julho de 2005 e setembro de 2007 foi o Editor-in-Chief do Journal of the Brazilian Computer Society. Atualmente é membro do Editorial Board do Requirements Engineering Journal ? REJ, bem como do Journal of Software Engineering Research and Development - JSERD. Prof. Jaelson Castro atuou como coordenador de várias cooperações internacionais, tais como o projeto "Integração de Técnicas de Requisitos com Aspectos: O Caso TROPOS", entre a Universidade Federal de Pernambuco ? Brasil e Universidade Nova de Lisboa ? Portugal, financiado pelas CAPES (Brasil)/ GRICES (Portugal). Também coordenou o projeto "Integração de Técnicas de Modelagem Organizacional para Geração Automática de Software: O Caso do OO-Method", uma cooperação Internacional entre a Universidade Federal de Pernambuco / Brasil e Universidade Politecnica Valencia / Espanha, financiada pela CAPES (Brasil)/ MEC-DGU (Espanha). Além disso coordenou e/ou participou da organização de prestigiosos eventos, tais como: SBES 1995, SBES 1997, WER 1998, WISDOM 1999, STRAW 2001, UML 2001, SELMAS 2002, SELMAS 2003, SBES 2004, CAiSE 2005, IDEAS 2006, IDEAS 2008, RIGiM 2009, ISTAR 2010, WGPB 2010, CAiSE 2011, RCIS 2012, RIGIM 2012, iStar 2013, ER@BR 2013, CLEI 2013, CAiSE 2014, iStar15, RE@SAC2016, RE@SAC2017, RE@Next! parte do RE 2017, RE@SAC2018, WER 2018, etc. Atuou como professor visitante nos seguintes centros de pesquisas estrangeiras: University of Toronto , Canada no ano 2000, Center for Scientific and Technological Research- IRST, Italia no ano 2006, University of Trento (Dipartimento di Ingegneria e Scienza del Informazione) em 2008 e Universidad Politecnica de Valencia, Espanha nos anos 2005,2010 e 2011. Entre fevereiro de 2012 e janeiro de 2013 foi professor visitante no Department of Computer Sciences do University College London (UCL), Reino Unido.

Título: Integration between requirements engineering and safety analysis

Resumo: Abstract: Safety-Critical Systems (SCS) require more sophisticated requirements engineering (RE) approaches as inadequate, incomplete or misunderstood requirements have been recognized as a major cause in many accidents and safety-related catastrophes. In this talk, we will discuss the challenges regarding the complexity of specifying SCS by presenting the approaches proposed to improve the communication or integration between RE and safety engineering in SCS development. We will present the results of a SLR we conducted to investigate the activities that should be performed by RE during safety analysis, the hazard/safety techniques it could use, the relationships between safety information that it should specify, the tools to support safety analysis as well as integration benefits between these areas. Finally, we will present the status of our research.


Workshops edição de 2017

A edição 2017 do evento de premiação da produção científica do CIn/UFPE em 2016 em periódicos internacionais de primeira linha premiou 56 artigos envolvendo cerca de 34 docentes do centro.

Essa edição contou com palestras proferidas por 6 professores dos 34 premiados, contemplando várias áreas de pesquisa do centro.  Essas palestras foram uma ótima oportunidade para os professores diretamente envolvidos divulgarem as suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn. O evento aconteceu na sexta-feira, dia 26 de maio no anfiteatro do CIn com as seguintes palestras:

Abel Guilhermino da Silva Filho

Atualmente é bolsista de produtividade em Desenvolvimento Tecnológico do CNPq, nível 2, e Professor Adjunto do CIn-UFPE. Possui graduação em Engenharia Elétrica, mestrado em Ciências da Computação e doutorado em Ciências da Computação. Tem experiência na área de Engenharia da Computação, com ênfase em Sistemas Embarcados, atuando principalmente nos seguintes temas: Eficiência Energética, Internet of Things (IoT), Aplicações Industriais, Arquitetura de Computadores, Sistemas Embarcados Automotivos, Computação Inteligente aplicado à Sistemas Embarcados, Computação de Alto Desempenho, Bioengenharia, Sistemas Reconfiguráveis e Dispositivos Móveis. 

Título: Computação Inteligente aplicado a Sistemas Embarcados para Redução de Energia

Resumo: O objetivo da apresentação será abordar diversos aspectos de eficiência energética usando computação inteligente para redução de consumo de energia em sistemas embarcados. Algumas aplicações industriais serão mostradas como estudos de caso, indicando as respectivas técnicas que foram aplicadas para redução de energia no contexto de sistemas embarcados. Serão discutidos aspectos de eficiência energética no âmbito de computação de alto desempenho, casa inteligente, computação reconfigurável e dispositivos móveis. 

Alex Sandro Gomes

Alex Sandro Gomes é Engenheiro Eletrônico (UFPE, 1992), Mestre em Psicologia Cognitiva (UFPE, 1995) e concluiu o doutorado em Ciências da Educação pela Université de Paris v (René Descartes) em 1999. Atualmente é Professor no Centro de Informática da Universidade Federal de Pernambuco, Bolsista de Produtividade Desen. Tec. e Extensão Inovadora 2 do CNPq e membro da Academia Pernambucana de Ciências. Atua com a concepção de ambientes colaborativos de aprendizagem. Publicou mais de 200 trabalhos em periódicos especializados e em anais de eventos, orientou ou co-orientou mais de 60 dissertações de mestrado e teses de doutorado na área. Atuou como coordenador dos eventos SBIE e IHC, promovidos pela SBC. Atuou como membro das comissões especiais de Interação Humano Computador e Informática Educativa da SBC. É líder do grupo de pesquisa Ciências Cognitivas e Tecnologia Educacional. É Coordenador das comunidades de software livre Amadeus e Openredu.

Título: Smart, seamless and lifelong learning environments

Resumo: Over the last three centuries, we have become accustomed to living in classrooms and consider these spaces as privileged to the socialization of knowledge between consecutive generations. This modality of education, one military technology of instruction created to form the contingents of the Prussian army in the XIX century, served very well to the aims of the military and workers training during the 1st and 2nd Industrial Revolutions. With the advent of the Internet and the rise of the 3rd Industrial Revolution this modality showed its limitations. With the emergence of the 4th Industrial Revolution, access to learning opportunities takes place in a ubiquitous and pervasive way. At the same time, nationwide societies need to form more competent and creative people than those of the previous generation. In this lecture, I present the ongoing design of new conceptual models of learning environments that persuade new learning experiences, while respecting the historically constituted structures of practices of socialization of knowledge. More specifically, I illustrate how the design science research approach promote a deep understanding cognitive phenomena involved in technology-mediated education practices and guide the design of learning environments to persuade smart, seamless and lifelong learning experiences.

Augusto Cézar Alves Sampaio

Professor Titular do Centro de Informática (CIn) da UFPE, possui graduação e mestrado em Ciência da Computação pela UFPE e doutorado pela Oxford University. Em 2016, recebeu o título de Doutor Honoris Causa da University of York, Reino Unido. Em 2010, foi agraciado com o título de Comendador da Ordem Nacional do Mérito Científico, pela Presidência da República do Brasil. É membro do Formal Methods Europe Fellowship Award Committee e membro do IFIP TC1. A principal área de interesse é Engenharia de Software, com ênfase em Métodos Formais. Tem contribuído com semântica, refinamento e transformação de especificações, modelos e programas concorrentes e orientados a objetos; técnicas composicionais de verificação de modelos (model checking); integração entre métodos formais e semi-formais (como UML e SysML); modelos de componentes; e na geração automática de testes a partir de modelos. Coordenador Brasileiro do Projeto COMPASS (Comprehensive Modelling for Advanced Systems of Systems), financiado pela Comunidade Europeia, edital FP7, (2011-2014) e Coordenador da Cooperação entre a Motorola Mobility e o CIn-UFPE, desde 2002,

Título: Compositional Analysis and Testing of Component-Based Systems

Resumo: We present a CSP-based systematic approach that fosters the rigorous design of component-based development. Our approach is strictly defined in terms of composition rules, which are the only permitted way to compose components. These rules guarantee the preservation of properties (particularly deadlock and livelock freedom) by construction in component composition. Nevertheless, their application is allowed only under certain conditions whose verification via model checking turned out impracticable even for some simple designs, and particularly those involving cyclic topologies. We address the performance of the analysis and present a significantly more efficient alternative to the verification of the rule side conditions, which are improved by carrying out partial verification on component metadata throughout component compositions and by using behavioural patterns. The use of metadata, together with behavioural patterns turn previous exponential time verifications into linear time. Two case studies (the classical dining philosophers, also used as a running example, and an industrial version of a leadership election algorithm) are presented to illustrate and validate the overall approach. As a complementary approach, testing of reactive systems from natural  language requirements  is also addressed. 

George Darmiton da Cunha Cavalcanti

Doutorado em Ciência da Computação pela Universidade Federal de Pernambuco (UFPE). Professor Associado II do Centro de Informática (CIn) da UFPE. Experiência nas seguintes áreas: Sistemas de Múltiplos Classificadores, Seleção e Geração de Protótipos, Detecção de Impressão Digital Falsa, Análise dos Componentes Principais, Reconhecimento de Padrões e de Aprendizagem de Máquina

Título: Combining Diversity Measures for Ensemble Pruning

Resumo: Multiple Classifier Systems (MCSs) have been widely used in the area of pattern recognition due to the difficult task that is to find a single classifier that has a good performance on a great variety of problems. Studies have shown that MCSs generate a large quantity of classifiers and that those classifiers have redundancy between each other. Various methods proposed to decrease the number of classifiers without worsening the performance of the ensemble succeeded when using diversity to drive the pruning process. In this work we propose a pruning method that combines different pairwise diversity matrices through a genetic algorithm. The combined diversity matrix is then used to group similar classifiers, i.e., those with low diversity, that should not belong to the same ensemble. In order to generate candidate ensembles, we transform the combined diversity matrix into one or more graphs and then apply a graph coloring method. The proposed method was assessed on 21 datasets from the UCI Machine Learning Repository and its results were compared with five state-of-the-art techniques in ensemble pruning. Results have shown that the proposed pruning method obtains smaller ensembles than the state-of-the-art techniques while improving the recognition rates.

Teresa Bernarda Ludermir

Professora Titular do Centro de Informática da UFPE. Em 2010, foi agraciada com o título de Comendadora da Ordem Nacional do Mérito Científico, pela Presidência da República do Brasil. É sênior member do IEEE. Em 2015, recebeu os Prêmios do Mérito Científico da Sociedade Brasileira de Computação (SBC) e das Comissões Especiais de Redes Neurais e Inteligência Artificial. Possui graduação e mestrado em Ciência da Computação pela UFPE e doutorado pelo Imperial College - University of London. A principal área de interesse é Inteligência Computacional, com ênfase em Redes Neurais e Aprendizado de Máquina. Foi editora chefe do periódico IJCIA - Imperial College Press de 2004 a 2012. Tem participado ativamente da organização e de comitês de programas das principais conferências nacionais e internacionais em redes neurais e inteligência computacional, bem como de comitês assessores do CNPq, FINEP, FACEPE e de outras agências.

Título: Otimização de Comitês

Resumo: Se investe cada vez mais no desenvolvimento e aplicação de ferramentas baseadas em aprendizagem de máquina e mineração de dados para a extração de conhecimento de bases de dados.
Porém, não existe um único método de aprendizagem que seja melhor que os outros métodos para solucionar todos os problemas. Uma alternativa para melhorar a precisão dos métodos de aprendizagem é usar múltiplos modelos. Essa área da aprendizagem de máquina é chamada de Sistemas de Combinação de Classificadores (SCC). Algumas escolhas precisam ser feitas para o desenvolvimento de um SCC, entre elas: i) Quantos e como gerar múltiplos modelos?; ii) Devemos combinar todos os modelos gerados ou apenas uma parte deles? No caso de escolhermos apenas uma parte, como será feita essa escolha/seleção?; iii) Como combinar as respostas dos modelos?
Existem inúmeras opções de escolhas para os componentes de um SCC. Recentemente eu tenho investigado duas abordagens para seleção dos componentes de um SCC: otimização e meta-aprendizado. A metodologia de seleção de comitês desenvolvida tem sido aplicados a diferentes domínios, tais como previsão de séries temporais e problemas de classificação

Veronica Teichrieb

Possui graduação em Informática pela Universidade da Região da Campanha (1996), mestrado em Ciência da Computação pela Universidade Federal de Pernambuco (1999) e doutorado em Ciência da Computação pela Universidade Federal de Pernambuco (2004). Durante o doutorado participou de um programa de doutorado sanduíche na Aerosensing Radarsysteme GmbH, Alemanha. Atualmente é professora adjunta I do Centro de Informática da Universidade Federal de Pernambuco. Tem experiência na área de Ciência da Computação, com ênfase em Processamento Gráfico (Graphics), atuando principalmente nos seguintes temas: realidade virtual, realidade aumentada e interação 3D.

Título: MirrARbilitation: A clinically-related gesture recognition interactive tool for an AR rehabilitation system

Resumo: Background and Objective: Interactive systems for rehabilitation have been widely investigated for motivational purposes. However, more attention should be given to the manner in which user movements are recognized and categorized. This paper aims to evaluate the efficacy of using a clinically-related gesture recognition tool, based on the international biomechanical standards (ISB) for the reporting of human joint motion, for the development of an interactive augmented reality (AR) rehabilitation system — mirrARbilitation.
Methods: This work presents an AR rehabilitation system based on ISB standards, which enables the system to interact and to be configured according to therapeutic needs. The KinectTM skeleton tracking technology was exploited and a new movement recognition method was developed to recognize and classify biomechanical movements. Further, our mirrARbilitation system provides exercise instructions while simultaneously motivating the patient. The system was evaluated on a cohort of 33 patients, physiotherapists, and software developers when performing shoulder abduction therapy exercises.Tests were performed in three moments: (i) users performed the exercise until they feel tired without the help of the system, (ii) the same, however using the mirrARbilitation for motivation and guidance, and (iii) users performed the exercise again without the system. Users performing the movement without the help of the system worked as baseline reference.
Results: We demonstrated that the percentage of correct exercises, measured by the movement analysis method we developed, improved from 69.02% to 93.73% when users interacted with the mirrARbilitation. The number of exercise repetitions also improved from 34.06 to 66.09 signifying that our system increased motivation of the users. The system also prevented the users from performing the exercises in a completely wrong manner. Finally, with the help of our system the users’ worst result was performing 73.68% of the rehabilitation movements correctly. Besides the engagement, these results suggest that the use of biomechanical standards to recognize movements is valuable in guiding users during rehabilitation exercises.
Conclusion: The proposed system proved to be efficient by improving the user engagement and exercise performance outcomes. The results also suggest that the use of biomechanical standards to recognize movements is valuable in guiding users during rehabilitation exercises.

Workshops edição de 2016

A edição 2016 do evento de premiação da produção científica de 2015 do CIn/UFPE em periódicos internacionais de primeira linha premiou 39 artigos envolvendo cerca de 35 docentes do centro.

Essa edição contoucom palestras proferidas por 6 professores premiados, contemplando várias áreas de pesquisa do centro. Essas palestras foram uma ótima oportunidade para os professores diretamente envolvidos divulgarem as suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn. O evento aconteceu no dia 16 de setembro no anfiteatro do CIn com as seguintes palestras:

Eduardo Antônio Guimarães Tavares 

Eduardo Tavares possui mestrado e doutorado em Ciências da Computação pela Universidade Federal de Pernambuco (2006 e 2009). Desde 2011 é docente do CIn-UFPE e seu interesse em pesquisa inclui (mas não limitado): avaliação de desempenho e dependabilidade de sistemas, modelagem formal (ex: redes de Petri), sistemas  de tempo real, cloud computing e estimativa de consumo de energia.

Título: Avaliação de desempenho e dependabilidade em sistemas computacionais

Resumo: Avaliação de desempenho e dependabilidade tem sido de grande importância no projeto de sistemas computacionais, por exemplo, devido à necessidade de projetar serviços com alta disponibilidade e baixo tempo de resposta. Apesar da importância, a realização destas avaliações não é uma tarefa simples, requerendo a criação de modelos e ferramentas de software para automatizar diversas atividades. Nesta apresentação, o docente fará uma introdução sobre avaliação de desempenho e dependabilidade, e demonstrará aplicações no contexto de virtualização de redes  e  na avaliação quantiativa de riscos em projetos de software.

Adriano Lorena Inácio Oliveira

Atualmente é bolsista de produtividade em pesquisa do CNPq, nível 2, e Professor Adjunto do CIn-UFPE. Possui graduação em Engenharia Eletrônica, mestrado em Ciências da Computação e doutorado em Ciências da Computação. Tem experiência na área de Ciência da Computação, com ênfase em Inteligência Computacional, atuando principalmente nos seguintes temas: aprendizagem de máquina, redes neurais artificiais, inteligência computacional e aplicações.

Titulo: Aprendizagem Sequencial com Filtro de Kalman e Extreme Learning Machine para Problemas de Regressão e Previsão de Séries Temporais

Resumo: Em aplicações de aprendizagem de máquina, as extensões da Extreme Learning Machine (ELM) podem ser usadas em situações onde o conjunto de entrada não está totalmente disponível no início da fase de treinamento. A versão sequencial da ELM, chamada de Online Sequential Extreme Learning Machine (OS-ELM), lida com esse problema através da solução recursiva de mínimos quadrados para atualização dos pesos de saída da rede. Entretanto, a implementação da OS-ELM e suas extensões sofrem com o problema de multicolinearidade e o seu efeito na variância das estimativas dos pesos. Neste trabalho, apresentaremos um novo método para aprendizagem sequencial com capacidade para tratar os efeitos da multicolinearidade. Chamado de Kalman Learning Machine (KLM), o método proposto utiliza o filtro de Kalman para a atualização sequencial dos pesos de saída de uma Single Layer Feedforward Network (SLFN) baseada na OS-ELM. Uma extensão do método, chamada de Extended Kalman Learning Machine (EKLM) será também apresentada. O método proposto nesse artigo foi comparado com alguns dos mais recentes e efetivos métodos para o tratamento de multicolinearidade em problemas de aprendizagem sequencial. Os experimentos executados mostraram que o método proposto apresenta um desempenho melhor que a maioria dos métodos do estado da arte, quando medidos o erro de previsão e o tempo de treinamento.

Fabio Queda Bueno da Silva

Graduado em Ciência da Computação pela Universidade de Campinas, é PhD em Ciência da Computação pelo Laboratory for Foundations of Computer Science, University of Edinburgh, Escócia. Possui pós-doutorado na Universidade de Toronto, Canadá, na área de engenharia de software. É Professor Associado do CIn-UFPE desde 1993. Suas áreas de pesquisa, ensino e consultoria incluem fatores humanos na engenharia de software, equipes e projetos de software, gestão da inovação, sistemas locais e nacionais de inovação, e empreendedorismo. Tem vasta experiência no planejamento e implantação de projetos de arranjos produtivos locais (APL), tendo sido o coordenador do projeto de APL do Estado de Pernambuco, consultor de planejamento estratégico do APL de Tecnologias da Informação de Maceió-AL e de Viçosa-MG, do projeto de Centros Tecnológicos de Pernambuco e um dos criadores do Parque Tecnológico Porto Digital de Recife.

Título: Design do Trabalho na Engenharia de Software - Na direção da construção de uma Teoria do Design do Trabalho (Job Design Theory) na Engenharia de Software

Resumo Estruturado:
Contexto: Design do trabalho (do inglês job design, também conhecido como design de tarefas – task design) é a especificação de conteúdo, métodos e relacionamento de postos de trabalho ou cargos, a fim de satisfazer as exigências tecnológicas e organizacionais, bem como os requisitos sociais e pessoais do empregado. O design do trabalho é relevante para o desenvolvimento de software porque cada decisão associada a forma como o trabalho é realizado pode afetar o desempenho individual dos engenheiros de software e a efetividade do trabalho em equipe, bem como a satisfação, motivação, comprometimento, stress, e saúde das pessoas no trabalho. No entanto, aspectos específicos do design do trabalho no desenvolvimento de software não são diretamente tratados pelas teorias de design do trabalho existentes, que tiveram sua origem em setores industriais clássicos, como manufatura e serviços tradicionais.
Objetivo: O objetivo desta palestra é apresentar os resultados iniciais de um estudo de longo prazo para a construção de uma teoria do design do trabalho na engenharia de software que incorpore as características das tarefas do desenvolvimento de software, as necessidades motivacionais e de satisfação dos engenheiros de software, e as interdependências e interações inerentes ao trabalho em equipe.
Resultados Obtidos: Nós realizamos uma ampla pesquisa de campo envolvendo 79 profissionais de empresas de software brasileiras, onde analisamos 21 fatores associados ao design do trabalho em software. Estes fatores foram correlacionados com conflito e ambiguidade de papéis, bem como com job burnout.
Considerações finais: Nossos resultados preliminares mostram que o design do trabalho na engenharia de software tem características diferentes de outros setores produtivos. Estas diferenças impactam a forma como os profissionais desempenham suas tarefas e também a motivação e satisfação no trabalho. Acreditamos que a construção de uma teoria do design do trabalho com foco no desenvolvimento de software trará impactos importantes para a melhoria do desenvolvimento de software na indústria.

Djamel Sadok

Possui doutorado em Computer Science - University of Kent at Canterbury e atualmente é Professor Titular do CIn-UFPE. Pesquisa nos temas: sistemas de comunicações, redes de acesso, segurança, Cloud Computing, classificação de tráfego.

Titulo: On the performance of heterogeneous MANETs

Resumo: Recent decades have witnessed the birth of major applications of wireless communication technology, further supported by the increasing capabilities of portable devices, low cost and ubiquitous presence. Despite radio technology diversity, a great deal of existing research focuses on a single and isolated wireless technology at a time, where homogeneous elements are identified by IP addresses. This work presents a heterogeneous technology routing (HTR) Framework, targeted towards scenarios where the heterogeneity of devices and networking technologies is present. Our contribution is many fold. It consists of a framework, which encompasses a process for bootstrapping networks, a routing protocol capable of dealing with multiple network interfaces, and a tuning with multipath extensions. We evaluate the performance of the bootstrap, routing and multipath mechanisms by way of simulation and an actual testbed implementation. The multipath evaluation simulates HTR networks with WiMAX, 3GPP LTE and Wi-Fi support. Results show that our proposal can effectively improve the data delivery ratio for ad-hoc networks and that it reduces the end-to-end delay without major impact on network energy consumption. As part of HTR tuning, we investigate next the impacts of tuning the HELLO refresh interval timer on route convergence and its subsequent energy consumption reduction during this phase. We also compare our tuned HTR with the widely used optimized link state routing protocol. Results show that varying the HELLO refresh interval can improve the convergence time and reduce the energy consumption without major impact on network behavior. Our proposal also includes a new distributed address allocation algorithm, namely, the dynamic node configuration protocol (DNCP). This paper conducts a comparative analysis between the Prime, Prophet and the DNCP schemes using static and dynamic topologies in terms of network setup time, energy consumption and control message overhead. Results show that the DNCP had a lower battery power consumption and less control message overhead while it slightly suffers with regard to setup.

Fernando José Castor de Lima Filho

Doutor em Ciência da Computação pela UNICAMP em 2006 e Graduado em Ciência da Computação em 2001. É professor do CIn-UFPE desde 2008 e atualmente vice-coordenador da graduação em Ciência da Computação. Embora já tenha ministrado disciplinas em diversas áreas, gosta mesmo é de lecionar sobre programação. Desenvolve pesquisas nas áreas de Engenharia de Software e Linguagens de Programação, com particular ênfase em temas como Programação Concorrente, Tratamento de Erros, Eficiência Energética e Evolução de Software.

Título: A Large-scale Study on the Usage of Java's Concurrent Programming Constructs

Resumo: In both academia and industry, there is a strong belief that multicore technology will radically change the way software is built. However, little is known about the current state of use of concurrent programming constructs. In this work we present an empirical work aimed at studying the usage of concurrent programming constructs of 2227 real world, stable and mature Java projects from SourceForge. We have studied the usage of concurrent techniques in the most recent versions of these applications and also how usage has evolved along time.
The main findings of our study are: (I) More than 75% of the latest  versions of the projects either explicitly create threads or employ some concurrency control mechanism. (II) More than half of these projects exhibit at least 47 synchronized methods and 3 implementations of the Runnable interface per 100,000 LoC, which means that not only concurrent programming constructs are used often but they are also employed intensively. (III) The adoption of the java.util.concurrent library is only moderate (approximately 23% of the concurrent projects employ it). (IV) Efficient and thread-safe data structures, such as ConcurrentHashMap, are not yet widely used, despite the fact that they present numerous advantages.
Evidence on how concurrent programs are written can indicate how well-accepted mechanisms for concurrent programming are in practice. Moreover, it can inform researchers designing new mechanisms about the kinds of constructs that developers may be more willing to use. Tool vendors can also benefit by supporting developers in the use of lesser-known, more efficient mechanisms, for example, by implementing novel refactorings. Furthermore, results such as those uncovered by this study can support lecturers in more convincingly convey to students the importance of concurrent programming, not only for the future of software development, but also for the present.
Trabalho realizado em colaboração com Gustavo Pinto, Weslley Torres, Benito Fernandes e Roberto S.M. Barros

Aluízio Fausto Ribeiro Araújo

Possui graduação em Engenharia Elétrica pela UFPE, mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas e doutorado em Inteligência Artificial e Ciência da Computação pela University of Sussex. Atualmente é professor titular Do CIn-UFPE, assessor ad hoc do Fundação de Amparo à Pesquisa do Estado de São Paulo, Assessor ad hoc do Conselho Nacional de Desenvolvimento Científico e Tecnológico, Assessor ad hoc do Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, Membro da International Neural Networks Society, Membro da Sociedade Brasileira de Computação - Porto Alegre, Membro senior da IEEE Computational Intelligence Society e Membro de corpo editorial da IEEE Transactions on Neural Networks and Learning Systems. Tem experiência na área de Ciência da Computação, com ênfase em Sistemas de Computação. Atuando principalmente nos seguintes temas: Redes Neurais, Memoria Associativa, Emoção, Memória Associativa Bidirecional e Processo Cognitivo. 

Título: Hopf Bifurcation in a Chaotic Associative Memory

Abstract: This paper has two basic objectives: the first is to investigate Hopf Bifurcation in the internal state of a Chaotic Associative Memory(CAM). For a small network with three neurons, resulting in a six-dimensional Equation of State, the existence and stability of Hopf Bifurcation were verified analytically. The second objective is to study how the Hopf Bifurcation changed the external state (output) of CAM, since this network was trained to associate a dataset of input-output patterns. There were three main differencesbetween this study and others: the bifurcation parameter was not a time delay, but a physical parameter of a CAM; the weights of interconnections between chaotic neurons were neither free parameters, nor chosen arbitrarily, but determined in the training process of classical AM; the Hopf Bifurcation occurred in the internal state of CAM, and not in the external state (input-output network signal). We present three examples of Hopf Bifurcation: one neuron with supercritical bifurcation while the other two neurons do not bifurcate; two neurons bifurcating into a subcritical bifurcation and one neuron does not bifurcate; and the sameexample as before, but with a supercritical bifurcation. We show that the presence of a limit cycle in the internal state of CAM prevents output signals from the network converging towards a desired equilibrium state (desired memory), although the CAM is able to access this memory.



Workshops edição de 2015

A edição 2015 do evento de premiação da produção científica de 2014 do CIn/UFPE em periódicos internacionais de primeira linha premiou 39 artigos envolvendo cerca de 32 docentes do centro.
Essa edição contou com palestras proferidas por 6 professores premiados, contemplando várias áres de pesquisa do centro. Essas palestras foram uma ótima oportunidade para os professores diretamente envolvidos divulgarem as suas atividades de pesquisa, ensejando o interesse dos alunos e possíveis parcerias com os colegas do CIn.

Carlos Alexandre Barros de Mello

Graduado em Engenharia Eletrônica pela UFPE, possui mestrado e doutorado em Ciências da Computação pela UFPE. Professor adjunto do CIn-UFPE desde 2009. Atua principalmente nos temas: processamento de imagens, processamento de documentos, segmentação de imagens, análise de textura, visão computacional, percepção visual e processamento de voz. Membro do Technical Committee on Human Perception in Vision, Graphics and Multimedia da IEEE Systems, Man and Cybernetics Society. Senior Member do IEEE.

Título: An Approach to Skew Detection of Printed Documents e A new thresholding algorithm for document images based on the perception of objects by distance

Resumo: This presentation aims to introduce the algorithms developed in [1] and [2]. The first comes from a collaboration with researchers at University of Belgrade, Serbia. It presents a new algorithm for skew detection in printed documents. It has a first skew estimation (found based on morphological operators and analysis of connected components) which is further refined by the use of statistical moments. The method is proved to be robust to noise.
The second work presents a new algorithm for thresholding (i.e., conversion from color or gray scale images into black and white images) based on concepts of visual perception. The method is very effective in difficult situations as when the documents has smears, smudges, marks of adhesive tapes, non-uniform luminance, and so on. The idea is to simulate what happens when an object goes far from an observer. As our visual system tends to lose information about details of the scene, information about other major components remains. If we think of details as ink and the major components as the major colors of the background (the paper), it is possible to use this situation to separate ink from paper.

Divanilson Campelo

Professor Adjunto do CIn-UFPE e Bolsista de Produtividade do CNPq nível 2 desde 2010. Foi Visiting Assistant Professor do Departamento de Engenharia Elétrica da Universidade de Stanford, Califórnia, EUA. Foi também Professor Adjunto da Universidade de Brasília, Professor da Universidade Presbiteriana Mackenzie, Pós-doutorando da UNICAMP, e Engenheiro de Sistemas da Nortel Networks. Suas áreas de interesse de pesquisa são eficiência energética, redes de acesso de próxima geração, software defined networking, e redes automotivas e veiculares.

Título: A Novel ITU-T Standard for Energy Efficiency in Passive Optical Network

Energy efficiency in communication networks has been growing in importance in the last few years, mainly due to economical and environmental issues. Passive Optical Networks (PONs) are widely seen as the future of broadband access. In 2010, the ITU-T standardized two optical network unit (ONU) power saving modes, which are protocol-based mechanisms for ONU power management in PONs. However, notwithstanding that these two modes were standardized, there is no technical reason to maintain the separation between them. In this talk, I'll present the Watchful Sleep mode, a new mode that unifies the Doze and Cyclic Sleep modes into a single power management mode. The new mode eliminates the extra control signaling and maximizes the amount of energy saved by keeping only the necessary hardware ON. Due to its effectiveness, the Watchful Sleep mode was included in the ITU-T G.984 (GPON) and ITU-T G.987 (XG-PON) standards in 2014. It is also being considered for the NGPON standard (ITU-T G.989), which aims at standardizing TWDM PON networks.

Paulo Borba

Doutor em Computação pela Universidade de Oxford, Inglaterra, possui graduação e mestrado em Ciência da Computação pela UFPE. Atualmente é Professor Titular de Desenvolvimento de Software no CIn-UFPE e desenvolve pesquisas em Engenharia de Software e Linguagens de Programação, atuando principalmente nos seguintes temas e na integração entre eles: Modularidade de Software, Linhas de Produtos de Software, e Evolução e Transformação de Programas e Modelos.

Título: Evolução de Linhas de Produtos de Software

Resumo: Um diferencial competitivo importante para empresas de software é a capacidade de lançar, com agilidade e custos reduzidos, sem comprometer a qualidade, produtos similares adaptados às peculiaridades de clientes diferentes. Isto tem se tornado possível através do desenvolvimento de linhas de produtos de software (LPS). Uma LPS é um conjunto de produtos de software relacionados, por compartilharem funcionalidades, e que são gerados através da composição e sintetização de artefatos reusáveis. Este tipo de reuso, visando um conjunto específico de produtos, pode trazer melhorias significativas em produtividade e time to market, bem como, indiretamente, em qualidade. No entanto, a evolução de LPS traz desafios importantes já que os efeitos das mudanças podem ter impacto em vários produtos. Para evitar impactos indesejados causados pelas mudanças, é importante dispor de teorias, técnicas, ferramentas e mecanismos linguísticos para justificar e facilitar a evolução segura e eficiente de LPS. Nesse breve seminário, apresentaremos uma visão geral dos resultados obtidos nessa direção e relatados nos trabalhos premiados.

Paulo Maciel

Possui graduação em Engenharia da Eletrônica pela Universidade de Pernambuco, mestrado em Engenharia Elétrica e doutorado em Ciências da Computação pela UFPE. Foi docente da UPE de 1989 a 2003 e atualmente é professor associado do CIn-UFPE. Foi professor visitante da Duke University em 2011. Possui experiência em Avaliação de Desempenho e Dependabilidade de Sistemas, Cloud Computing, Sistemas Embarcados e Sistemas de Manufatura e atua principalmente nos seguintes temas: redes de Petri, modelagem de desempenho e dependabilidade, e estimativa de consumo de energia e desempenho.

Título: Performance and Dependability Evaluation in Computing Systems

Resumo: Due to ubiquitous provision of services on the Internet, performance and dependability have become attributes of prime concern in hardware/software development, deployment, and operation. The evaluation of dependability or performance of systems is not a trivial task. The assistance of software tools to obtain the wanted metrics is of utmost importance.
Software packages for creation and evaluation of dependability and performance models are essential tools for infrastructure designers, since they provide support to cope with each specific formalism characteristics. Usually, these tools provide a user-friendly graphical user interface (GUI), and an evaluation engine to obtain metrics from the models. Each software platform has its strengths and drawbacks, and can be specifically tailored to a particular formalism or support different types of models.
Mercury is a multi-model tool conceived and implemented in our research group to support the creation and evaluation of performance and dependability models. This platform has been evolving since 2008 and has now reached a degree of maturity that allows us to encourage its use by groups outside our institution.

Pedro Manhães

Possui graduação e mestrado em Ciência da Computação pela UFPE e doutorado em Ciência da Computação pela Université de Nice (INRIA Sophia Antipolis). Professor do CIn-UFPE desde 2011. Atua principalmente em geometria computacional e processamento de geometria.

Título: Invariâncias para variedades simplesmente curvadas com aplicações em segmentação de malhas

Resumo: Recentemente, foi demonstrado que, para o modelo de iluminação de Lambert, apenas cenas compostas de objetos planificáveis dotados de uma distribuição de albedo particular produzem imagens bidimensionais com isolinhas (quasi-)invariantes a mudanças direcionais de iluminação.
No trabalho em questão, nós apresentamos e investigamos uma generalização do cenário supramencionado. Nós mostramos que, mais geralmente, as condições necessárias para experimentar-se tais invariâncias são relativamente restritivas, e, outrossim, estão relacionadas com a geometria diferencial dos objetos. Nós provamos, mais precisamente, que variedades simplesmente curvadas, i.e., com apenas uma direção de curvatura em cada ponto, produz isossuperfícies invariantes em relação a uma certa família de funções de energia (campo escalar). No caso tridimensional, a função de energia em questão corresponde ao modelo de iluminação de Lambert com distribuição de albedo. O resultado também estende-se para cenários de dimensão ambiente finita compostos de objetos simplesmente curvados. Uma consequência disto é que o algoritmo de detecção de mudanças em imagens de Weiss et al. (On the illumination invariance of the level lines under directed light: Application to change detection. SIAM J. Imag. Sci. 2011; 4(1):448–71) pode ser modificado para detectar se uma dada variedade de dimensão finita é simplesmente curvada ou não. Baseando-se nessa teoria, nós desenhamos, implementamos e avaliamos um algoritmo de segmentação de malhas em 3D capaz de detectar as partes planificáveis da superfície que a malha representa.

Renata Souza

Possui graduação e mestrado em Estatística pela UFPE e doutorado em Ciências da Computação pela UFPE. Atualmente é professor Associado 1 do CIn-UFPE e Bolsista de Produtividade em Pesquisa 2. Tem experiência na área de Ciência da Computação com ênfase em Matemática da Computação, atuando principalmente nos seguintes temas: analise de dados simbólicos numéricos, métodos de classificação e agrupamento, sistemas de recuperação, regressão e estatística aplicada.

Título: A weighted multivariate Fuzzy C-Means method in interval-valued scientific production data
Clustering is the process of organizing objects into groups whose members are similar in some way (Jain, 2010). Most of the clustering methods involve numeric data only. However, this representation may not be adequate to model complex information that may be: histograms, distributions, intervals. To deal with these types of data, Symbolic Data Analysis (Diday and Noirhomme-Fraiture, 2008) was developed. In multivariate data analysis, it is common some variables to be more or less relevant than others and less relevant variables can mask the cluster structure.

This work proposes a clustering method based on fuzzy approach that produces weighted multivariate memberships for interval-valued data. These multivariate memberships (Pimentel and Souza, 2013) can change at each iteration of the algorithm and they are different from one variable to another and from one cluster to another. Furthermore, there is a different relevance weight associated to each variable that may also be different from one cluster to another. The advantage of this method is that it is robust to ambiguous cluster membership assignment since weights represent how important the different variables are to the clusters. An application with interval-valued scientific production data is presented in order to show the usefulness of representing classes of statistical units using a framework supported by Symbolic Data Analysis where the variability may effectively be considered in the data representation. In addition, the proposed method is compared against other methods already established by the clustering literature. Clustering quality results have shown that the proposed method offers higher accuracy when variables have different variabilities.