Programação

Algoritmos e finanças quantitativas: Seleção de portfolios e gerenciamento de risco

Cristiano Arbex Valle
Ferramentas computacionais são hoje em dia imprecindíveis para o gerenciamento de risco e seleção e análise de portfolios financeiros. A área de finanças quantitativas é naturalmente uma área multidisciplinar que requer a solução de problemas computacionais desafiadores. Há forte interação com áreas como otimização e aprendizado de máquina. Apresentaremos uma visão geral dos avanços, estado da arte e desafios no estudo de finanças quantitativas.

Apertem os cintos... o motorista sumiu!

Douglas Guimarães Macharet
A Robótica ganhou notoriedade nas últimas décadas e uma área que tem se destacado e obtido grandes avanços em anos mais recentes é a Robótica Móvel. Nesta paletra será feita uma apresentação focando especificamente no caso dos carros autônomos. Faremos uma breve restrospectiva histórica, discutiremos sobre a parte sensorial e algorítmica, questões relacionadas à ética e mencionaremos possíveis desafios ainda a serem resolvidos.

Aprendizado de Máquina para Observação da Terra

Jefersson Alex dos Santos
Observação da Terra (Earth Observation) é um campo de pesquisa em constante crescimento que combina aspectos de visão computacional, aprendizado de máquina e processamento de sinais/imagens. O objetivo geral é a obtenção de informações em larga escala sobre processos que ocorrem na superfície da Terra, explorando dados coletados por sensores aéreos e espaciais. Esses sensores fornecem informações ricas sobre materiais e propriedades de superfície biofísica em uma grande parte do espectro eletromagnético, bem como diferentes resoluções espaciais e temporais. A Observação da Terra implica, portanto, a necessidade de múltiplas tarefas de inferência, que vão desde a detecção até o registro, a mineração de dados, a fusão de dados multi-sensor, multi-resolução e multitemporal e a fusão de multimodalidade e a regressão, por exemplo. Essa área compreende aplicações como serviços baseados em localização, serviços de mapeamento on-line, vigilância em larga escala, modelagem urbana 3D, sistemas de navegação, previsão a desastres naturais, monitoramento de mudanças climáticas, modelagem de habitats virtuais, etc. Nessa palestra vamos discutir algumas abordagens computacionais baseadas em aprendizado profundo para reconhecimento de padrões em imagens aéreas com foco em aplicações reais como agricultura e monitoramento ambiental.

Biometria: Conceitos e Desafios

William Robson Schwartz
Esta palestra tratará dos principais aspectos relacionados à biometria, tais como a sua importância como um componente de sistemas de vigilância e das dificuldades encontradas para a sua ampla aplicação no nosso cotidiano. Aspectos mais específicos, tais como abordagens para o reconhecimento de faces compreendendo as tarefas de identificação e verificação, o problema da detecção de novos indivíduos presentes na galeria e a proteção de sistemas biométricos contra ataques spoofing também serão discutidos nesta apresentação.

Blockchain, bitcoin, altcoins etc.: separando a realidade do exagero

Jeroen van de Graaf
Nos últimos tempos palavras como blockchain, bitcoin, altcoins, ICO estão muito na moda. Grandes lucros, grandes perdas e hacks espetaculares foram noticiados. Ao mesmo tempo há muitas expectativas de que estas tecnologias transformarão grandes instituições, como bancos ou a administração pública. Nesta palestra esclarecemos estas novas tecnologias, mostrando seu potencial, problemas e desafios.

Ciência de Redes: matemática e algoritmos

Fabricio Murai Ferreira
Nesta palestra, irei apresentar alguns modelos matemáticos para representar redes tais como a Web e redes sociais. Que propriedades estruturais das redes são bem representadas por estes modelos? Falarei também sobre o problema de se projetar um crawler para obter a topologia de uma rede. Será que as observações coletadas são enviesadas de alguma forma?

Design de Interação: Implicações para a Responsabilidade Ética e Social

Raquel Oliveira Prates
Nesta palestra eu falo sobre design de interação e apresento uma visão rápida e histórica da área, com o objetivo de mostrar como o foco da área têm mudado. No início da década de 80 o foco era em usabilidade e em como gerar sistemas que as pessoas conseguissem usar para atingir seus objetivos. Embora a usabilidade de uma interface continue sendo essencial atualmente, a meu ver a participação cada vez mais ubíqua da tecnologia na vida das pessoas aumenta a responsabilidade do projetista, não apenas em relação à qualidade do sistema sendo gerado, mas também em relação aos seus impactos sociais e éticos na sociedade atual.

Empreendedorismo, Inteligência Artificial e Aprendizado de Máquina

Nivio Ziviani, Diretor Acadêmico e Pesquisa da Kunumi, Professor Emérito do DCC/UFMG
A sociedade vem passando por transformações importantes nas relações entre trabalho e renda, a partir dos avanços recentes na área de Inteligência Artificial. Existe previsão de que 1/3 dos empregos deverão ser substituídos por automação de tarefas cognitivas, sendo a IA o núcleo dessa transformação. O objetivo desta palestra é discutir os avanços mais recentes de IA e a experiência na criação de startups no DCC/UFMG, onde podemos citar quatro exemplos: Miner, Akwan, Neemu e Kunumi.

Estatística para Programadores

Flavio Vinicius Diniz de Figueiredo
Nesta palestra vou discutir como é possível compreender alguns conceitos chave da estatística usando um linguajar do mundo de programação. Em particular, vamos revisitar conceitos como teste de hipóteses, p-valores e intervalos de confianças através de pequenos trechos de código. A ideia é que no fim da palestra a plateia tenha um melhor conhecimento de alguns jargões chave da estatística. Com tal conhecimento, espero que alguns erros comuns do uso de métodos estatísticos sejam evitados no futuro. Inspirado na palestra "Statistics for Hackers" do Jake Vanderplas (University of Washington).

Futebol e política não se discute, se analisa!

Pedro Olmo Stancioli Vaz De Melo
O crescente avanço dos sistemas de informação permite que cada vez mais dados sejam gerados e armazenados. A Internet, por exemplo, possui bilhões de dispositivos computacionais, em que cada um deles é responsável por gerar, armazenar e transmitir uma quantidade incontável de dados. Isso ocorre porque praticamente todas as atividades realizadas por seres humanos hoje são registradas em algum banco de dados. O conhecimento de como processar esse banco de dados de valor inestimável e em evolução pode levar, consequentemente, a uma melhor compreensão dos interesses e da dinâmica de cada entidade em um determinado sistema, comunidade ou na sociedade. Assim, nesta palestra serão descritos métodos computacionais que fazem usos de dados públicos a fim de descobrir conhecimento em sistemas políticos e no futebol. Mostro que esses métodos são capazes de desvendar características e padrões surpreendentes, a um custo menor e a uma velocidade maior que os métodos tradicionais.

Para que serve a álgebra linear?

Gabriel de Morais Coutinho
A resposta para a pergunta do título pode ser assunto para um bacharelado inteiro. Nesta palestra, vou falar por alto sobre onde e como se usam algumas das ferramentas estudadas no primeiro curso de álgebra linear, e algumas das minhas aplicações favoritas à teoria de grafos.

Uma abordagem Bayesiana sobre o método científico e a navalha de Occam.

Mário Sérgio Alvim
A busca pelo conhecimento passa necessariamente por testar e escolher entre hipóteses alternativas que podem explicar o universo em que vivemos. Por exemplo, algumas pessoas dizem que vacinas podem causar autismo, outras dizem que não. Algumas pessoas acreditam que tudo no universo é físico, outras acreditas em um deus. Algumas dizem que aumentar os impostos sobre os ricos é necessário para fomentar a economia, outras dizem que não. Estes problemas são exemplos de testes de hipóteses: dado um conjunto de dados (ou evidências) observados e um conjunto de hipóteses que tentam explicar a ocorrência destes dados, como escolher qual(is) hipótese(s) melhor explica(m) os dados? A resposta para este problema não é trivial, e buscar a verdade é uma tarefa árdua! O método científico propõe uma abordagem para este problema que, sem hipérboles, consiste em um dos maiores avanços da civilização humana. Com o método científico nos tornamos capazes de sistematicamente testar hipóteses de acordo com as evidências disponíveis, descartando aquelas incompatíveis com os dados observados e escolhendo entre as remanescentes a que melhor estes dados. Um princípio filosófico fundamental do método científico é "a navalha de Occam", que diz que se duas hipóteses explicam igualmente bem um conjunto de dados, devemos optar pela "mais simples" em detrimento da "mais complicada". Nesta palestra vamos discutir como o Teorema de Bayes consegue quantificar precisamente o problema de teste de hipóteses e a navalha de Occam. Em particular, vamos responder a perguntas como: (1) O que difere uma boa hipótese de uma má hipótese? (2) Qual a diferença entre uma "hipótese verossímel" e uma "hipótese provável"? (3) Como quantificar o "nível de simplicidade" de uma hipótese? O objetivo é prover uma abordagem quantitativa para o método científico, com insights em especial à sua aplicação em ciência da computação.