De 19 de maio a 16 de junho o Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos, realizará o curso de extensão Informação, Probabilidade e Estatística, que será ministrado pelo professor Iouri Mikhailovich Soukhov, da Universidade de Cambridge. O curso é gratuito e será realizado às segundas e sextas, na sala 5001, e às quartas, na sala 5004. São 30 vagas disponíveis e as inscrições podem ser feitas até 14 de maio ou enquanto houver vagas por meio desse link: icmc.usp.br/e/12777
Ministrado todo em inglês, o curso apresentará aos participantes conceitos de Teoria de Probabilidade e Estatística, em combinação com conceitos da Teoria de Informação, e abrangerá as áreas de ciências de computação, física, biologia, estatística, entre outras.
Soukhov é professor emérito no Laboratório de Estatística, do Departamento de Matemática Pura e Estatística Matemática, da Universidade de Cambridge. É também membro do Instituto de Problemas de Transmissão da Informação, da Academia Russa de Ciências, em Moscou. Entre seus interesses de pesquisa destacam-se: probabilidade aplicada e teórica, física matemática, teoria de informação, matemática financeira e industrial, áreas nas quais já publicou livros e um grande número de artigos científicos.
Confira abaixo o programa do curso:
1. Informação e entropia. Entropia condicional e mutua. Entropia relativa;
2. Codificação livre de ruído. Desigualdade de Kraft. Codificações de Huffman e de Shannon-Fano. Taxa de geração de símbolos e taxa de informação de fontes discretas. Taxa de informação para fontes de Bernoulli e de Markov;
3. Taxa de transmissão confiável, capacidade de canal ruidoso. Relação entre a capacidade de canal e o máximo da entropia mútua. Cálculos da capacidade e da codificação ótima para canais discretos simétricos e sem memória;
4. Codificação e decodificação no espaço de Hamming. Códigos lineares: decodificação de síndrome. Exemplos de códigos. Limites de Singleton, de Hamming e de Gilbert-Varshamov. Códigos cíclicos e códigos BCH;
5. Máximos das distribuições de entropia. Suficiência e a entropia mútua. Divergência de Kullback-Leibler.
6. Informação de Fisher e desigualdade de Cramer-Rao. Desigualdade na Teoria Estatística. Testes de hipóteses do ponto de vista da Teoria de Informação. Busca binária.
Bibliografia:
3. Taxa de transmissão confiável, capacidade de canal ruidoso. Relação entre a capacidade de canal e o máximo da entropia mútua. Cálculos da capacidade e da codificação ótima para canais discretos simétricos e sem memória;
4. Codificação e decodificação no espaço de Hamming. Códigos lineares: decodificação de síndrome. Exemplos de códigos. Limites de Singleton, de Hamming e de Gilbert-Varshamov. Códigos cíclicos e códigos BCH;
5. Máximos das distribuições de entropia. Suficiência e a entropia mútua. Divergência de Kullback-Leibler.
6. Informação de Fisher e desigualdade de Cramer-Rao. Desigualdade na Teoria Estatística. Testes de hipóteses do ponto de vista da Teoria de Informação. Busca binária.
Bibliografia:
- T.M. Cover and J.A. Thomas. Elements of Information Theory. J.Wiley, 2006;
- M. Kelbert and Y. Suhov. Information Theory and Coding by Example. Cambridge University Press, 2012 (in press).
Mais informações
Comissão de Cultura e Extensão do ICMC
E-mail: ccex@icmc.usp.br
Telefone: (16) 3373.9146