Programação

Aprendizado de máquina para redes de computadores

Daniel Fernandes Macedo
As redes de computadores são um terreno muito fértil para o uso de aprendizado de máquina: temos muitos equipamentos, muitas aplicações, e um grande volume de tráfego. Nesta palestra vamos analisar o uso de aprendizado de máquina para o gerenciamento de redes de computadores. Iremos apresentar alguns exemplos recentes de pesquisa do laboratório WINET em gerenciamento automático de redes sem fio, e quais são as tendências apontadas pelos especialistas para aprendizado de máquina e deep learning em redes sem fio.

Automated Machine Learning (AutoML)

Gisele Lobo Pappa
Quando nos deparamos com um novo problema em que queremos aplicar técnicas de aprendizado de máquina, escolher qual o melhor algoritmo ou o melhor conjunto de métodos de pré-processamento a serem utilizadas é uma tarefa difícil e rotineiramente feita de forma exaustiva ou ad-hoc. A área de Aprendizado de Máquina Automático (Auto-ML) surgiu para atacar esse problema usando técnicas de busca e otimização. Seu objetivo é determinar qual o melhor algoritmo de aprendizado ou o melhor fluxo de tarefas de aprendizado (que podem envolver métodos de pré e pós processamento de dados) a ser utilizado para resolver um problema específico com base nas características dos dados disponíveis. O objetivo desse mini-curso é introduzir a área de Auto-ML e seus principais conceitos. Também apresentaremos uma categorização dos métodos, as técnicas de busca mais utilizadas, os frameworks mais usados e aplicações.

CSIndexbr: Um Sistema de Informações sobre a Produção Científica Brasileira em Ciência da Computação

Marco Tulio Valente
Desenvolvido pelo Grupo de Pesquisa em Engenharia de Software Aplicada do DCC/UFMG, o CSIndexbr é um sistema aberto que provê diversas informações sobre a produção científica brasileira em periódicos e conferências de qualidade em Ciência da Computação. Nesta palestra, iremos apresentar o sistema, suas principais funcionalidades e arquitetura. Iremos também comentar como o CSIndexbr pode ser usado por atuais e futuros alunos de pós-graduação.

Dispositivos e sistemas de hardware para arquiteturas não-von Neumann

Gilberto Medeiros Ribeiro
A arquitetura de von Neumann possui intrinsecamente um gargalo que é o barramento de dados. Ao passo que hoje o que se computa transita mais para cargas centradas em dados em contraposição a processamento, estes limites se tornam cada vez mais evidentes, o que pede por novas arquiteturas e dispositivos. O objetivo desta palestra introdutória é de apresentar alguns problemas, e propostas e implementações de dispositivos e arquiteturas que visam resolve-los, passando por memoria não voláteis emergentes, dispositivos memristores, neuristores e nano armazenagem de dados.

Inteligência artificial contra a corrupção: o caso do Projeto Geocontrole

Jefersson Alex dos Santos
Órgãos de controle são instituições públicas responsáveis pela investigação, fiscalização e supervisão do uso de recursos e manutenção do patrimônio público do país. As principais iniciativas de combate a corrupção enfatizam a necessidade do fortalecimento dessas agências. Nesse contexto, o desenvolvimento de novas tecnologias computacionais baseadas em inteligência artificial é fundamental para melhorar e dar escala aos processos de controle. O Projeto GeoControle é uma iniciativa do Tribunal de Contas da União (TCU) para o desenvolvimento de geotecnologias para monitoramento ambiental e de grandes obras de infraestrutura como ferrovias e rodovias. Essa palestra abordará os desafios computacionais e principais resultados obtidos pelo Laboratório de Reconhecimento de Padrões e Observação da Terra (Patreo) na parceria com o Tribunal de Contas da União no âmbito do Projeto GeoControle.

Justiça, transparência e responsabilidade em mineração de dados

Wagner Meira Júnior
A influência de algoritmos nas nossas vidas cresce diariamente, frequentemente determinando conteúdos, bens e serviços que consumimos, lugares que visitamos e mesmo ofertas de emprego. Em consequência, surge uma questão fundamental, tanto do ponto de vista ético quanto social, que é avaliar até que ponto algoritmos não discriminam, permitem atribuir responsabilidades e produzem explicações inteligíveis sobre as suas saídas. Além de conceituar esses princípios, esse mini-curso irá apresentar estratégias de avaliação e atendimento a esses novos requisitos, assim como discutir cenários reais.

Machine Learning e Wolfram Language

Daniel Carvalho, Wolfram Research
Wolfram Language é a linguagem de programação de mais alto nível atualmente, é possível utiliza-la em nuvem ou localmente, sua capacidade de processamento simbólica permite facilmente resolver problemas complexos com poucas linhas de código, é possível utilizar Machine Learning e diversos algoritmos de Inteligência Artificial em seus projetos, pesquisas ou Data Science, além de gerar gráficos sofisticados e conter dados acurados de forma interada. Vamos aprender a utilizar esta tecnologia.

Os Impactos da Inteligência Artificial na Transformação Digital

Nivio Ziviani, Diretor Acadêmico e Pesquisa da Kunumi, Professor Emérito do DCC/UFMG
A sociedade vem passando por transformações importantes nas relações entre trabalho e renda, a partir dos avanços recentes na área de Inteligência Artificial. Existe previsão de que 1/3 dos empregos deverão ser substituídos por automação de tarefas cognitivas, sendo a IA o núcleo dessa transformação. O objetivo desta palestra é discutir os avanços mais recentes de IA e a experiência na criação de startups no DCC/UFMG, onde podemos citar quatro exemplos: Miner, Akwan, Neemu e Kunumi.

Pensando nos computadores do Futuro. Como as máquinas aprenderão economizando energia?

Omar Paranaiba Vilela Neto
O que queremos nos computadores dos futuro? Algumas das respostas são fáceis: queremos mais desempenho, menos consumos energético, menos dissipação de calor, mais portabilidade, dentre outras. Para obtermos nossos desejos, teremos que desenvolver sistemas computacionais diferentes, deixando de lado o silício convencional. Que tal realizar computação sem corrente elétrica? Será que luz pode ser uma solução? Computadores orgânicos são possíveis? E se usarmos magnetismo? Nesta palestra veremos como imaginar os computadores do futuro e até onde podemos ir na fronteira energética e do aprendizado de máquina.

Representation Learning for Recommender Systems

Rodrygo Santos
Recommender systems are applications that suggest relevant items (e.g. movies) for users. They are ubiquitous and can be easily recognized in popular on-line services such as Amazon (products), Netflix (movies), YouTube (videos) and Spotify (music). For achieving high quality personalized recommendations, recommendation algorithms rely on suitable users and items representations. Good representations are then key for devising good algorithms. In this talk, we make a tour through the most relevant kinds of user/item representations, pointing out benefits and limitations. We first describe sparse representations used by classic neighborhood-based collaborative filtering algorithms. Next, we show how these sparse representations evolved to dense representations based on embeddings, which are the representations used by most of the best performing recommendation algorithms, such as the ones based on latent factor models and deep learning. Em colaboração com Leandro Balby Marinho

Uma abordagem Bayesiana sobre o método científico e a navalha de Occam.

Mário Sérgio Alvim
Na busca pelo conhecimento precisamos escolher entre hipóteses alternativas que tentam explicar o universo que observamos. Por exemplo, algumas pessoas dizem que vacinas podem causar autismo, outras dizem que não. Algumas pessoas acreditam que tudo no universo é físico, outras acreditam em uma força sobrenatural. Algumas dizem que cortar os impostos dos mais ricos aqueceria a economia, outras dizem que teria o efeito contrário. Estes são exemplos de testes de hipóteses: dado um conjunto de dados (ou evidências) observados e um conjunto de hipóteses que tentam explicar a ocorrência destes dados, como escolher qual(is) hipótese(s) melhor explica(m) os dados? A resposta para este problema não é trivial, e buscar a verdade é uma tarefa árdua! A abordagem do método científico para este problema consiste em um dos maiores avanços da civilização humana: com ela nos tornamos capazes de rigorosa e sistematicamente testar, selecionar e atualizar hipóteses de acordo com as evidências disponíveis. Um princípio fundamental do método científico é "a navalha de Occam", que diz que se duas hipóteses explicam igualmente bem um conjunto de dados, devemos optar pela "mais simples". Nesta palestra vamos discutir como o Teorema de Bayes consegue quantificar precisamente o problema de teste de hipóteses e a navalha de Occam, respondendo quantitativamente a perguntas como: (1) O que distingue uma "boa hipótese" de uma "má hipótese"? (2) Qual a diferença entre uma "hipótese verossímil" e uma "hipótese provável"? (3) Como quantificar o "nível de simplicidade" de uma hipótese?

Visão Computacional para processamento de vídeos em primeira pessoa

Erickson Rangel do Nascimento
Nesta palestra serão discutidos os principais problemas do processamento de vídeos filmados em primeira pessoa. Mostraremos os resultados alcançados atualmente pela comunidade de visão computacional e possíveis problemas de pesquisa. Apresentaremos também o projeto Semantic Hyperlapse (https://www.verlab.dcc.ufmg.br/semantic-hyperlapse), desenvolvido nos últimos anos no contexto do DCC-UFMG.