?> MQ | Ementas

Ementas

.

Ementas dos cursos e seminários

Os cursos aqui descritos são regularmente oferecidos nos programas de graduação em Ciências Sociais e Gestão Pública, nos programas de pós-graduação em Sociologia e Ciência Política, e nos cursos intensivos de Metodologia Quantitativa (MQ) da UFMG. Todos eles podem ser contratados como cursos de extensão, seminários ou como programas de treinamento para grupos específicos. Para maiores informações sobre o MQ2018 veja também o site da Fundep.

 

CURSOS INTRODUTÓRIOS
Introdução à Estatística

Professora: Ilka Afonso (UFMG)
A meta do curso é apresentar conceitos teóricos e ferramentas estatísticas relevantes para a análise de dados quantitativos. Ao final do curso as(os) estudantes estarão familiarizados com os principais instrumentos analíticos de dados e com os padrões de distribuição estatística mais prevalentes nas ciências sociais. Os seguintes tópicos serão discutidos:
1- Estatísticas Descritivas (Medidas de tendência central; Medidas de variabilidade; Medidas de posição relativa; Gráficos exploratórios de dados);
2- Fundamentos de probabilidade;
3- Distribuições discretas de probabilidade;
4- Distribuições contínuas de probabilidade;
5- Teoria da estimação;
6- Estimação de médias;
7- Estimação de proporções;
8- Teste de hipóteses para uma média;
9- Teste de hipóteses para uma proporção;
10- Teste de hipóteses para duas médias;
11- Teste de hipóteses para duas proporções;
12- Análise de tabelas de contingência e o teste do qui-quadrado;
13- ANOVA;
14- introdução à análise de regressão e correlação linear simples.

Voltar ao topo


Análise de dados agregados

Profa.: Simone Wajnman (Cedeplar/UFMG)
O curso visa discutir os métodos de construção e análise dos principais indicadores socioeconômicos, utilizados, tanto nacional quanto internacionalmente, para subsidiar a formulação, a gestão, o monitoramento e a avaliação das políticas públicas. Analisam-se as principais fontes de informações, as etapas para construção e análise dos indicadores, suas possibilidades e limitações. Especificamente, discutem-se os aspectos conceituais e metodológicos da construção e interpretação dos principais indicadores de condições demográficas, saúde, educação, mercado de trabalho, pobreza, desigualdade de renda, além dos indicadores muldimensionais de qualidade de vida e desenvolvimento humano.
Tópicos abordados:
1) As etapas para construção e análise dos indicadores socioeconômicos: dos microdados aos indicadores agregados;
2 ) Fontes de dados comuns aos indicadores freqüentemente utilizados (microdados e acesso aos indicadores agregados);
3) Construção de indicadores demográficos, de saúde e educação e padronização de medidas brutas;
4) Construção de indicadores de mercado de trabalho e rendimentos, pobreza e desigualdade;
5) Índices multidimensionais de qualidade e condições de vida, desenvolvimento humano, trabalho decente, desigualdade de gênero, etc.

Voltar ao topo


Elaboração de artigos científicos

Professores: Claudio Santiago Dias Jr (Depto de Sociologia, UFMG) e Ana Paula Verona (Depto Demografia, UFMG)
O objetivo deste curso é capacitar alunos de pós-graduação na produção de artigos científicos em suas áreas específicas de interesse, como sociologia, demografia, saúde pública, ciência política, dentre outras. O curso será centrado na estrutura e na composição de cada parte do texto, considerando todas as etapas necessárias para a finalização de um artigo científico. As aulas serão baseadas na leitura e análise de trabalhos publicados em revistas de reconhecida importância na área. O curso também apresentará aspectos importantes para a escolha dos periódicos para envio do artigo, relacionamento com editores, maneiras de responder pareceres, utilização de novas plataformas para tornar seu artigo mais acessível, dentre outros aspectos importantes que envolvem a publicação no meio científico. Espera-se que ao final do curso o aluno apresente uma proposta de artigo que possa ser desenvolvido e encaminhado para publicação.

Voltar ao topo


Introdução ao R

Professor: Rogério Barbosa (USP/ CEBRAP), Lucas Gelape
A linguagem R tem se tornado cada vez mais popular em pesquisas acadêmicas das mais diversas áreas e também em atividades profissionais. Mas por que utilizar o R? Bem… o R é uma plataforma flexível que vai muito além de um pacote para análise de dados. Nele podemos centralizar tarefas que geralmente são feitas com o uso de softwares diferentes: coletar dados da Internet, formatar e preparar bancos de dados, realizar análises estatísticas, produzir tabelas e gráficos e salvar os resultados. Tudo isso de forma automatizada, eficiente e completamente replicável. Além disso, o R é grátis, livre e aberto!
O conteúdo será focado na realização de análises estatísticas descritivas e exploratórias. Aprenderemos a manipular (criar, recodificar, transformar, fundir) variáveis e bancos de dados, aplicar medidas-resumo e elaborar a apresentação dos resultados (através de tabelas, gráficos e modelos). Revisaremos alguns pontos de Estatística básica e intermediária, como análise de regressão. Pretendo também que o aluno aprenda a buscar caminhos computacionais eficientes e encontrar soluções para os problemas práticos que encontrar em seu percurso de pesquisa. O curso se baseia em aulas expositivas, exercícios em sala e “deveres de casa” (possivelmente diários, mas curtos). Haverá horários diários de atendimento e monitoria para reforço os conteúdos – ambos extra-classe.
Pré-requisitos: 1. É necessário domínio das operações básicas de um computador: salvar/abrir arquivos, criar/deletar pastas, enviar e-mails, navegar na internet etc. 2. É necessário algum conhecimento sobre estatística básica: média, mediana, desvio-padrão, histograma, diagrama de dispersão. Conhecimentos sobre probabilidade, testes de hipótese e modelos de regressão são desejáveis. Abordaremos todas essas coisas, mas seria bom que esse contato fosse uma revisão. 3. É desejável algum contato prévio com software de análise estatística, planilha ou banco de dados (SPSS, Stata, SAS, Access…). 4. Não pressuponho nenhum contato prévio com R, nem qualquer conhecimento de linguagens de programação. 5. E importante que o aluno seja capaz de ler em inglês – uma vez que os arquivos de ajuda do R (que serão extensamente utilizados) estão escritos nessa língua. Além disso, a comunidade mundial de usuários tem o inglês como língua franca (faremos muito uso dos fóruns e listas de discussão).
Tópicos das aulas:
  1. Visão geral sobre o ambiente e a linguagem R: Manuseio de dados (Parte I), Operações boleanas e testes lógicos, Instalando pacotes, Obtendo ajuda online
  2. Rotinas estatísticas básicas: Estatísticas descritivas, uso de ponderação (dados de survey), trabalhando com grandes bancos de dados, fusão de bancos de dados, filtros, seleções e subconjuntos, gráficos básicos.
  3. R como plataforma computacional: Rotinas com repetição, programando funções, acelerando a execução dos códigos.
  4. Rotinas estatísticas intermediárias: Princípios de simulação, associação estatística, Introdução a regressão linear.

Voltar ao topo


Introdução (estatística) ao STATA

Professora: Ana Paula Verona (UFMG) e Guilherme Quaresma Gonçalves (UFMG)
O objetivo deste curso é apresentar ao aluno o software STATA, uma das principais plataformas para a realização de estatística básica e avançada no meio acadêmico. O curso propicia o conhecimento básico de como efetuar manipulações de dados, desde a montagem do banco de dados, incluindo a criação, atribuição de rótulo e recodificação de variáveis, até a exploração de estatísticas descritivas. Neste último aspecto, este curso focará na realização de testes de estatísticas descritivas, comparação entre grupos, testes de associação e correlação, e na visualização e construção de gráficos exploratórios. O curso será desenvolvido a partir de aplicações práticas do STATA para bases secundárias do Instituto Brasileiro de Geografia e Estatística (IBGE).  Durante a condução do curso, o material didático elaborado pelos organizadores será distribuído aos alunos.
Público alvo: Pessoas graduadas ou cursando pós-graduação que desejem/necessitem trabalhar com bancos de dados quantitativos e conhecer melhor um software estatístico que permita fazer análises de dados tanto básicas quanto avançadas.
Tópicos abordados nas aulas
1) Introdução sobre o STATA e suas vantagens;
2) Apresentação do ambiente do STATA;
3) Criação de bases de dados primários;
4) Exemplos de bases de dados disponíveis na internet;
5) Leituras de bases de dados secundárias;
6) Manipulação de bases de dados;
7) Elaboração de tabelas;
8) Exportação dos resultados para o Microsoft Excel;
9) Testes de média e de chi-quadrado;
10) Elaboração de gráficos;
11) Produção de medidas de correlação entre variáveis (tabelas de contingência, gráfico de dispersão, r2, etc).

Voltar ao topo


Fundamentos de STATA

Instrutor: Guilherme Quaresma Gonçalves (Cedeplar/ UFMG)
O curso enfatizará a familiarização do aluno com o ambiente STATA, uma vez que este é uma das principais plataformas para a realização de estatística básica e avançada no meio acadêmico. Além do ambiente, serão apresentados mecanismos para manipulação dos dados, como exclusão de casos de observações, criação, atribuição de rótulo e recodificação de variáveis, dentre outros. O curso será desenvolvido a partir de aplicações práticas do STATA para bases secundárias do Instituto Brasileiro de Geografia e Estatística (IBGE), tais como o Censo Demográfico de 2010 e Pesquisa Nacional por Amostra de Domicílios (PNAD) referente ao ano de 2013. Entretanto, também será demonstrado como criar bancos de dados primários a partir da coleta do próprio aluno, o que facilitará sua inserção em pesquisas e afins. Por fim, também compõe o programa a realização de testes de estatísticas descritivas, comparação entre grupos, testes de associação e correlação, e a visualização e construção de gráficos exploratórios. Para o bom andamento do curso é recomendável (mas não obrigatório) que os alunos tenham conhecimento básico de estatística. Ao fim do curso o aluno será capaz de produzir e interpretar informações estatísticas utilizadas em trabalhos acadêmicos, artigos científicos e monografias. Haverá distribuição de material didático elaborado pelo instrutor e de certificado de participação.
Pré-requisitos: O pré-requisito mínimo para a participação no curso é ser aluno de graduação. Estudantes de pós-graduação e pessoas externas à UFMG também podem se inscrever.
Público-alvo: Diferentemente do “Estatística com STATA”, este curso direciona-se aos alunos de graduação (ex. Gestão Pública, Ciências Econômicas, Ciências Sociais, Ciências Atuariais e outros) interessados em ganhar familiaridade com o STATA para a execução das tarefas exigidas nos cursos e para a realização de atividades de pesquisa demandadas por bolsas de iniciação científica e elaboração de trabalhos finais de curso.
Tópicos abordados nas aulas:
1) Introdução ao STATA e suas vantagens;
2) Apresentação do ambiente do STATA;
3) Criação de bases de dados primários;
4) Exemplos de bases de dados disponíveis na internet;
5) Leitura de bases de dados secundárias;
6) Manipulação de bases de dados;
7) Elaboração de tabelas;
8) Estatísticas descritivas no STATA;
9) Exportação dos resultados para o Microsoft Excel;
10) Testes de média e de chi-quadrado;
11) Elaboração de gráficos;
12) Como realizar regressão linear simples, múltipla e logística.

Voltar ao topo


Captura, sistematização e análise de dados da web com R

Professores: Leonardo Barone (FGV/ Cebrap) e/ou Rogério Barbosa (USP/ Cebrap) e Lucas Gelape
Crescentemente temos acesso a maiores quantidades e variedades de informações por meio da internet. Este curso trata justamente da coleta, estruturação e uso, na pesquisa social, daquilo que convencionalmente tem sido chamado de big data. Nosso objetivo será automatizar e acelerar a coleta e a “limpeza” de grandes volumes de dados – livrando-nos de intermináveis e repetitivas tarefas de copiar-colar-formatar. Chamamos esses procedimentos de webscraping. Mas de que tipo de dados estamos falando? De qualquer tipo! Materiais textuais, tabelas, bancos de dados, imagens, vídeos, arquivos de áudio – enfim, tudo o que puder ser visualizado e baixado. Faremos isso principalmente através do uso de um ambiente/linguagem de programação, a plataforma R. Existem alguns softwares especializados para realizar alguns tipos de coleta, mas neste curso, nosso propósito é também capacitar os alunos na leitura e compreensão básica de códigos computacionais. Quanto mais se avança no aprendizado de técnicas de análise de dados, fugir de linguagens de programação se torna mais difícil. Deste modo, esta será também uma oportunidade de familiarizar-se com programação.
Pré-requisitos: O requisito fundamental para participação no curso é o conhecimento básico de estruturas de dados. É importante que o participante esteja habituado com algum software de estatística e seja capaz de construir e manipular variáveis e bases de dados. Um dos propósitos do curso é coletar informações para a produção de análises. Por isso é necessário que o participante tenha compreensão clara de onde quer chegar antes de iniciar a captura de informações na internet. Não é necessário que o participante saiba programar em HTML e demais linguagens utilizadas na construção de websites. Entretanto, é preciso ter alguma noção sobre como websites são construídos e como textos ou outros formatos de dados podem ser transformados e organizados. Mas ressaltamos:é um curso para cientistas sociais e não especialistas em exatas! Uma vez que a grande maioria dos materiais e tutoriais estão em inglês, a capacidade de ler em inglês é essencial.
Público alvo: Você já precisou clicar, copiar e colar centenas de vezes para coletar informações disponíveis na internet para sua pesquisa? Se este é um problema que você enfrenta, ou quer enfrentar, este é um curso no qual você deveria se matricular. Ele é voltado para pesquisadores em Ciências Humanas e outras que têm curiosidade e gosto por análise de dados (e um pouquinho de programação). Participantes poderão aplicar diretamente as técnicas do curso na sua vida acadêmica e pro fssional.
Tópicos abordados nas aulas:
1. Panorama sobre big data e webscraping
2. Introdução ao R
3. Estrutura de dados
4. Pacotes do R para webscraping
5. Noções da estrutura de dados em HTML
6. Download automático de arquivos
7. Coleta de materiais textuais
8. Coleta de tabela
9. Preenchimento automático de formulários
10. Utilizando APIs
11. Obtenção de dados geográficos
12. Geocodi cação de endereços e construção de mapas

Voltar ao topo

 

Amostragem

Professor: Marcel Vieira (UFJF)
Dados amostrais de pesquisas são frequentemente analisados pressupondo que os mesmos foram coletados por amostragem aleatória simples com reposição. Alguns cuidados devem ser tomados quando se trabalha com dados de pesquisas de grande porte por conta de três razões principais: 1 – os dados são frequentemente agrupados devido à utilização de amostras de conglomerados em múltiplos estágios ou desenhos de pesquisa longitudinais, o que implica que as observações dentro do mesmo conglomerado (ou observações repetidas para a mesma unidade) estão correlacionadas; 2 – unidades da amostra são selecionadas muitas vezes com probabilidades desiguais; quando estas probabilidades estão relacionadas com a variável de desfecho, a amostragem se torna informativa e os métodos estatísticos precisam levar tal característica em consideração; 3 – dados de pesquisa são quase inevitavelmente sujeitos a não-resposta, muitas vezes de magnitude considerável, o que novamente precisa ser levado em consideração e tratado.
Metodologia do curso: O curso será conduzido com aulas teóricas seguidas de sessões práticas, onde os participantes serão convidados a realizar tarefas que ilustram como usar os métodos e ferramentas para realizar as análises necessárias. Serão fornecidos exemplos usando dados reais. Os materiais do curso serão fornecidos em formato electrônico, incluindo slides do curso, folhas com atividades práticas e conjuntos de dados.
Público alvo: Pessoas que querem compreender os métodos de amostragem e de estimação, bem como software disponíveis pode permitir que analistas possam levar em consideração as características do desenho amostral ao conduzir sua análise. O curso capacitará os participantes a selecionar e analisar conjuntos de dados coletados por inquéritos por amostragem complexa usando métodos modernos e ferramentas disponíveis no software estatístico Stata, incluindo ferramentas para ponderação, estimação de erros padrão e diagnósticos.
Tópicos tratados em sala de aula: 
1 – Motivação e introdução
2 – Principais desenhos amostrais probabilísticos
3 – Análise exploratória de dados amostrais
4 – Ponderação e estimação de erros padrão
5 – Principais abordagens de inferência para dados amostrais
6 – Efeito do Plano Amostral

Voltar ao topo


CURSOS INTERMEDIÁRIOS
Metodologia de survey e construção de questionários

Professor: Mathieu Turgeon

O curso busca introduzir a pesquisa de survey como instrumento de coleta de dados. Seu foco será a aplicação da teoria cognitiva na metodologia de survey e nas suas implicações para a construção de questionários, elaboração de perguntas e escolha de modo de coleta. Tem-se como objetivos gerais a apresentação das características principais da pesquisa de survey e seus possíveis desenhos, incluindo experimentos embutidos em surveys, o entendimento dos processos cognitivos subjacentes ao processo de pergunta e resposta, introdução às técnicas básicas de amostragem e modos de coleta de dados de survey, a avaliação dos erros nos surveys e apresentação da pesquisa deliberativa de opinião e coleta online.

Público-alvo:

O curso destina-se a alunos de graduação e pós-graduação, professores, servidores públicos e demais profissionais com interesse na pesquisa de survey como ferramenta de coletas de dados. Pode interessar a pessoas oriundas de uma ampla variedade de campos de conhecimento como, por exemplo, sociologia, demografia, economia, ciência política, saúde, psicologia e outros.

Tópicos abordados nas aulas:

  1. Introdução à pesquisa de survey
  2. Amostragem e modos de coleta de dados de survey
  3. Elaboração de perguntas e questionário
  4. Os erros nos surveys e como evitá-los na contratação de serviços de pesquisa
  5. Pesquisa de opinião online e pesquisa deliberativa

Voltar ao topo


Regressão Linear

Professor: Gilvan Guedes (UFMG)
Os modelos de regressão linear, simples e múltipla, são os mais utilizados em publicações científicas e estudos aplicados em todo o mundo. Foi o primeiro modelo a ser desenvolvido para análise de efeitos e significância desses efeitos, e adequa-se a uma ampla gama de fenômenos que seguem uma distribuição contínua normal ou aproximadamente normal. Embora a estatística inferencial tenha se desenvolvido com a criação de outros modelos inferenciais, como os modelos de regressão não-lineares, a regressão linear ainda é um recurso de extrema utilidade prática toda vez que lidamos com variáveis contínuas que tenham distribuição aproximadamente normal. Ademais, ele nos dá a base fundamental para entender a diferença entre associação, correlação e causalidade, possuindo uma estrutura algébrica relativamente simples e uma interpretação bastante direta e intuitiva. Ao concluir este curso você estará apto a: 1) fazer análise descritiva exploratória e bivariada para diagnosticar possíveis associações a serem analisadas posteriormente por regressão; 2) Entender os pressupostos de um modelo de regressão linear; 3) Discutir e problematizar alternativas de soluções no caso de violação desses pressupostos; 4) Operar bases de dados e modelos de regressão linear utilizando o software estatístico e gratuito R; 5) Computar e interpretar medidas de ajustamento de modelos de regressão, como R2 e R2 Ajustado; 6) Fazer análise de resíduos; 7) Fazer testes formais de diagnóstico; 8) Calcular intervalos de confiança baseados em regressão e 9) Testar e decidir sobre melhores subconjuntos de variáveis independentes a serem introduzidas num modelo de regressão.
Público alvo: Pessoas interessadas em utilizar com rigor modelos de regressão. Os alunos são, tradicionalmente, oriundos de uma ampla variedade de campos do conhecimento, como sociologia, demografia, economia, saúde, assim como gestores públicos.
Tópicos abordados nas aulas:
1. Inferência e estimação (1 aula): Conceitos fundamentais; Estimação por MQO e Máxima Verossimilhança.
2. Análise de regressão (2 aulas): Conceitos fundamentais; Regressão, correlação, causação.
3. Regressão linear simples (3 aulas): Modelos, estimação dos parâmetros e testes sobre a inclinação e o intercepto; Previsão da resposta média e de novas observações; Cuidados no uso da regressão; Análise da adequação do modelo: Análise residual.
4. Regressão linear múltipla (4 aulas): Modelos, estimação e testes sobre os parâmetros; Variáveis Indicadoras. Multicolinariedade; Medidas de adequação e de detecção de pontos influentes; Discussão sobre medidas de ajuste e correção.

Voltar ao topo


Métodos quantitativos para a avaliação de políticas públicas

Instrutora: Carmelita Z. Veneroso (doutoranda em Sociologia pela UFMG)
O curso apresentará os principais conceitos e discutirá técnicas econométricas e bancos de dados aplicados à avaliação de políticas públicas. O objetivo é capacitar os participantes na utilização de ferramentas estatísticas e métodos de avaliação de políticas públicas com eficiência e rigor.
Pré-requisito: O pré-requisito mínimo para a participação no curso é ter conhecimento básico de Stata, estatística introdutória (medidas de tendência central e de variabilidade).
Público-alvo: O curso destina-se a todo estudante e/ou profissional que tem o interesse em aperfeiçoar o conhecimento e a aplicação das técnicas de avaliação de políticas públicas. Desta forma, é principalmente voltado para professores e/ou pesquisadores, alunos de graduação e pós-graduação, profissionais liberais e gestores públicos.
Tópicos abordados nas aulas: O conteúdo do curso inclui: 1) overview sobre o tema de avaliação de políticas públicas; 2) controle experimental; 3) controle estatístico; 4) desenho experimental, 5) desenhos quase-experimentais e desenhos não-experimentais; e 6) aplicação de modelos multivariados para a avaliação de políticas públicas.

Voltar ao topo


Grupos Focais

Professora: Corinne Davis Rodrigues (UFMG)
O curso tem por objetivo familiarizar os alunos com a técnica de coleta de dados de “grupos focais”. Muito utilizado na área de marketing, o “grupo focal” ou entrevista enfocada em grupo, tem a suas origens nas Ciências Sociais e é amplamente usado para captar percepções e motivações de atores sociais em diversas áreas, da saúde pública à estudos econômicos. No curso serão enfocadas as questões teóricas e práticas na elaboração e uso de grupos focais como também a integração desta técnica com a metodologia quantitativa. Durante o curso, os alunos elaborarão uma prática nesta técnica.
Público alvo: Pessoas de diversas áreas que se interessam em aprender sobre os usos e aplicações deste método qualitativo. Se você quer aprender mais sobre como e quando usar este método desenhado para capturar as dimensões subjetivas das percepções e motivações de atores, este curso é para você.
Tópicos abordados nas aulas:
1) Objetivos, Usos, e Teoria de Grupos Focais
2) Questões Práticas na Elaboração de Grupos Focais
3) Elaboração e Realização de Grupos Focais

Voltar ao topo


Análise Espacial Aplicada de Dados

Professores: Bráulio Silva (UFMG)

O objetivo deste curso é apresentar e explorar um conjunto de técnicas de geo-referenciamento e de análise espacial de dados utilizando algumas ferramentas específicas do programa computacional “QGIS”. O foco do curso é apresentar os requisitos básicos de organização de bases de dados com atributos geográficos. Inicialmente serão apresentados os conceitos básicos de cartografia e especificações relativas aos dados gráficos do tipo ponto, linha e polígono. Em seguida, mostraremos algumas fontes de dados de natureza geográfica que podem ser utilizados no software em que será ministrado o curso. O primeiro módulo do curso destaca a importância de se trabalhar com informações geo-referenciadas, a partir das quais se discutirá técnicas de visualização e exploração espacial de dados combinando a confecção de mapas temáticos com ferramentas gráficas e estatísticas. O segundo módulo do curso compreende a apresentação de técnicas apropriadas para análise espacial de dados. O objetivo principal dessa parte é mostrar aos alunos potencialidades da análise espacial que vão além da simples visualização dos dados.

Público Alvo: Alunos que tenham interesse em trabalhar com bases de dados geo-referenciadas ou que pretendam incorporar informações espaciais ao tema de interesse. Nesse curso será dada uma introdução ao uso do software de Sistema de Informação Geográfico, capacitando o aluno interessado na aplicação de técnicas estatísticas para dados de ponto e área.

Tópicos abordados em aula:

  1. Introdução ao QGIS
  2. Fontes de Dados com Atributos Espaciais
  3. Visualização de Dados Espaciais
  4. Técnicas de Detecção de Padrão Pontual
    1. Mean Center e Central Feature
    2. Kernel estimation e point estimation
    3. SST > MGD > Directional Distribution e Standard Distance*
  5. Técnicas de Análise de Dados de Área
    1. I-Moran
    2. Lisa

Voltar ao topo


Missing data e outliers

Professor: Jeronimo O. Muniz (UFMG)
Analistas de dados secundários frequentemente ignoram dados faltantes e pontos influentes sem de fato se atentarem ao impacto que estas decisões podem ter sobre suas conclusões. A variável renda, por exemplo, geralmente possui muitos valores iguais a zero e portanto seu logaritmo não pode ser extraído para melhorar a linearidade entre a variável resposta e covariáveis relevantes. A prática comum é ignorar tais valores sem se ater os pressupostos e consequências de tal medida. Tal decisão, entretanto, é arbitrária e pode ter consequências para as conclusões analíticas extraídas. Neste curso estudaremos estas consequências e formas de contorná-las. Para isso responderemos às seguintes perguntas: Quando é razoável ignorarmos as informações faltantes presentes em nossos bancos de dados? Subamostras de amostras aleatórias são representativas do universo inicial? O que fazer para contornarmos tais situações? Quando os dados devem ser imputados e como conduzir tal procedimento? Como diferenciar um ponto discrepante de um ponto influente? Que tipos de modelos estatísticos devem ser utilizados quando os pressupostos de mínimos quadrados (ex. distribuição normal da variável resposta, ausência de pontos influentes e homocedasticidade) são violados? Como estas escolhas impactam os resultados analíticos obtidos? Neste curso aprenderemos a lidar com estas situações para conduzirmos análises rigorosas dos dados secundários disponíveis utilizando técnicas de imputação e modelagem a partir do Stata. Dados da PNAD serão utilizados com exemplo em sala de aula.
Público alvo: Analistas que ignoram dados faltantes e outliers sem se aterem às consequências desta decisão sobre seus resultados. Pessoas que querem aprender como realizar imputação de dados e como utilizar modelos robustos às violações de pressupostos de mínimos quadrados ordinários sem terem muito trabalho. O curso pressupõe familiaridade mínima com o Stata, estatística introdutória e análise de regressão linear.
Tópicos abordados nas aulas:
1. Teoria sobre dados faltantes e pontos discrepantes
2. Tipos de dados faltantes (MCAR, MAR, MNAR)
3. Ignorar dados faltantes (listwise/ pairwise deletion) é uma decisão segura?
4. Métodos de identificação de pontos influentes
5. Métodos de imputação e controle (ajuste por dummies; imputação tradicional; imputação aleatória múltipla)
6. Introdução à modelos alternativos para contornar a violação de pressupostos de MQO: regressão quantílica; Modelos lineares generalizados; regressão robusta; modelo de Heckman pra viés de seleção.

Voltar ao topo


Análise de dados qualitativos

Professor: Rogério Barbosa (USP/ Cebrap) ou Leonardo Nascimento (UFBA) ou Monise Picanço (USP)
No campo da Metodologia Qualitativa, ha uma polarização entre duas perspectivas. De um lado, existem aqueles que compreendem que a investigação deve ser sempre exploratória, descritiva e indutiva. De outro, os que acreditam que mesmo com “Small N“, os métodos qualitativos podem ser dedutivos e prover explicações de cunho causal. Esse embate se reflete na forma como as pesquisas são organizadas, e também nos procedimentos de análise do material
produzido. Para ilustrar alguns aspectos dessa polarização, veremos duas abordagens que representam bem essas diferenças: (1) a Grounded Theory e (2) a Análise de Conteúdo (análise quantitativa do texto). A proposta deste curso é fornecer perspectivas e ferramentas para potencializar a análise do material qualitativo coletado a partir de entrevistas, observação e anotações. Veremos como a leitura e a interpretação podem ser complementadas com técnicas de codificação, fragmentação e cruzamento. Além disso aprenderemos a produzir indicadores quantitativos simples sobre o texto para a identificação de regularidades e diferenças.
Público-alvo: Pessoas que trabalham com pesquisa qualitativa e desejam conhecer um pouco mais sobre teorias e técnicas de analise textual. Além disso, aqueles que possuem uma grande (ou razoável) quantia de material qualitativo podem se servir bem da praticidade e sistematicidade provida pelos softwares que utilizaremos.
Tópicos abordados nas aulas
1. Elementos de Metodologia Qualitativa: Coleta e Analise
2. Apresentação do Atlas.TI
3. Modelo indutivo de codi ficação: Grounded Theory
4. Modelo dedutivo de codi ficação e técnicas de Análise de Conteúdo
5. Ferramentas avançadas do Atlas.TI
6. Validade e confiabilidade na pesquisa qualitativa

Voltar ao topo


Análise Qualitativa Comparativa (QCA)

Professor: Manoel Leonardo Santos (DCP/UFMG)
Estudos comparativos em Ciências Sociais, especialmente comparações cross-case, têm sido marcados por um intenso debate metodológico sobre os limites na formulação de inferências causais baseadas em abordagens qualitativas. No centro do debate encontra-se o problema da validade dessas inferências, especialmente se comparadas aos métodos estatísticos quantitativos. No contexto desse debate, Charles Ragin e outros colaboradores vêm desenvolvendo uma abordagem metodológica que ficou conhecida como QCA (Qualitative Comparative Analysis). Em resumo, essa abordagem nada mais é do que “um protocolo comparativo para analisar configurações causais de maneira sistemática e controlada” (Pérez-Liñan, 2010). A abordagem QCA tem como objetivo solucionar o problema da validade das inferências causais com número intermediário de casos, procurando se caracterizar como uma estratégia de integração quali-quanti. QCA aposta, portanto, na diversidade como síntese transcendente da complexidade (princípio norteador das abordagens qualitativas) e da generalidade (princípio norteador das abordagens quantitativas). Esse curso apresenta uma introdução ao QCA e suas variantes: Crisp Set QCA, Fuzzy Set QCA, Multivalue QCA e Time Series QCA. O objetivo do curso é dotar os participantes com os conhecimentos básicos para construir desenhos de pesquisa utilizando essa metodologia. Adicionalmente espera-se habilitar de forma introdutória os participantes a utilizar recentes desenvolvimentos computacionais, tais como os softwares fsQCA, o Tosmana e o QCA Package for R.
Público alvo: Estudantes e pesquisadores do campo das Ciências Sociais interessados em lançar mão do método comparativo como forma de explicação da realidade social. Especialmente indicado para quem pretende desenvolver estudos comparativos do tipo cross-case.
Conteúdo do curso: 1) Set-Theoretical Methods e QCA, a diversidade como síntese transcendente dos princípios de complexidade e generalidade. Fundamentos a teoria de conjuntos e lógica formal. Relações entre conjuntos. 2) Do conhecimento dos casos até a tabela de verdade. A natureza e a calibração de conjuntos difusos. 3) Analise de condições necessárias. Análise de condições suficientes. Reduzindo complexidade: minimização lógica e implicantes primários. 4) Parâmetros de ajuste do modelo: consistência e cobertura. 5) Diversidade limitada, análise contra factual, equifinalidade e causalidade conjuntural.  6) Normas de boas práticas em QCA.

Voltar ao topo


CURSOS AVANÇADOS
Análise de Dados Categóricos

Professor: Jerônimo Muniz (UFMG) ou Ana Maria Hermeto de Oliveira (Cedeplar/ UFMG)
O objetivo deste curso é possibilitar a exposição e o aprendizado de técnicas básicas e avançadas de análise de dados categóricos. Os famigerados modelos logísticos serão enfatizados, mas o curso também irá introduzir outras abordagens estatísticas para se analisar eventos binários, ordinais e nominais. Ao final do curso as participantes serão capazes de construir, utilizar e interpretar com eficiência modelos baseados em probabilidades e variáveis condicionais de interesse. Com o intuito de maximizar a absorção do conhecimento, os exercícios serão baseados em bancos de dados das áreas de Saúde e Ciências Sociais. Utilizaremos o software estatístico Stata. Aulas teóricas e práticas serão intercaladas para que os alunos possam se familiarizar com o material lecionado. Espera-se que os alunos matriculados saibam ler em inglês e estejam minimamente familiarizados com regressão linear e Stata. Estes quesitos são recomendados e desejáveis, mas não obrigatórios.
Público alvo: Este curso destina-se àqueles que: 1) querem investigar a existência de associações estatísticas entre variáveis categóricas; 2) desejam calcular as probabilidades de ocorrência de determinado evento a partir de observações condicionantes; 3) querem entender os passos para se construir, validar e interpretar modelos estatísticos para a estimativa de probabilidades latentes. Se a tua variável de interesse possui duas ou mais categorias (ordenadas ou não) e você estiver interessado em entender como utilizá-la em modelos de probabilidade, este curso é para você.
Tópicos abordados nas aulas:
1) Limitações do método de Mínimos Quadrados Ordinários (MQO) para a estimação de probabilidades
2) Testes de associação e independência para dados categóricos nominais e ordinais
3) Diferença entre probabilidade, risco, chance e razão de chances
4) Modelos log-lineares
5) Modelo logístico binário
6) Modelo logístico multinomial
7) Pressupostos e testes de validação para modelos categóricos
8) Interpretação de coeficientes, estimação de probabilidades latentes e construção de cenários contrafactuais

Voltar ao topo


Inferência Causal e Análise de Experimentos

Professora: Natalia S. Bueno (Yale University)
A busca por causalidade é comum em ciências sociais. Políticas de transferência de renda reduzem a pobreza? A presença de médicos em municípios melhora a saúde da população local? A diferença de renda entre brancos e negros é causada por diferenças de classe, escolaridade ou discriminação racial? Qual o efeito de programas governamentais de treinamento na renda de trabalhadores? Supomos que uma causa tem certo efeito num resultado, mas essa causa frequentemente não pode ser dissociada de outra causas: como dissociar o efeito de classe, escolaridade e cor, uma vez que essas estão correlacionadas? Como identificar o efeito de um treinamento na renda de trabalhadores sendo que aqueles que se inscrevem em tal programa são diferentes daqueles que não se inscrevem? Como controlar por “motivação” do trabalhador?
O desenho e a análise de experimentos ficaram distantes das ciências sociais. Em outras ciências, em especial em certos ramos da medicina com ênfase na produção de medicamentos, a análise experimental é essencial. No entanto, recentemente, observa-se a “revolução experimentalista” nas ciências sociais, em especial em psicologia, economia e ciência política. Apesar dos exageros que vem com as promessas de revolução (nós discutiremos os limites do desenho e análise experimental durante o curso), há grandes potenciais.
O curso exige conhecimento de teste de hipóteses e análise de regressão. O curso utilizará o programa R (e Excel para exemplificar conceitos simples) para os exercícios práticos, mas o aprendizagem de programas não é o foco deste curso. O curso pressupõe que o aluno tem o domínio básico de um programa para conduzir testes de hipóteses e modelos de regressão simples. Conhecimento de R é desejável, mas não é necessário (o aluno pode utilizar o programa da sua preferência para complementar os exercícios).
Público-Alvo: Se você tiver interesse em análise de experimentos ou em como fazer inferências causais através de experimentos em ciências sociais, esse curso é para você. A maior parte dos exemplos em sala de aula serão em temas de ciência política e economia política, mas veremos também exemplos da sociologia, psicologia e avaliação de políticas públicas
Tópicos abordados nas aulas
1. O que são experimentos? Causalidade, Contra-factuais, Correlação vs. Causalidade, Experimentos e Randomização.
2.  (Rápida) Introdução ao R.
3. Um Exemplo de Experimento em Sala de Aula.
4. Revisão de Testes de Hipótese.
5. Experimentos de campo e em laboratório.
7. Experimentos em survey.
6. Replicando um Experimento Clássico.
8. Análise de experimentos (e algumas complicações).
9. Ética e análise de experimentos.
10. Implementando seu experimento.

Voltar ao topo


Agent based modeling

Professor: Davoud Taghawi-Nejad (PhD em Economia pela University of Torino, Italy)
Complex Societies are the result of the actions and interaction of many individuals. In this class we will explain regularities on the society level, by building computer models of individuals and individual interactions. This can be  best illustrated with a simple example: an ant hive. While the individual ant makes very simple decisions the whole hive creates an incredibly complex society. In social science the behavior is maybe not as simple, but the outcomes of individual behavior are often surprising. The whole is more than the sum of it’s parts. For example we will be recreating the Schelling Segregation Model in class. It explains the racially segregated urban patterns of North America. For this model we will create 10000 artificial people in an artificial neighborhood. These ‘agents’ will be mildly racist, if they are surrounded by more than x% of people of the other race, they move. What we will find is that even very low racism leads to strongly segregated neighborhoods. In general we will answer questions of what the macroscopic outcome of micro decisions are. How does individual behavior lead to an emergent property of the whole society. Agent-Based modeling, a relatively new technique, is frequently used in many fields such as geography, ecology, economics as well as social and political science. Therefore the course will not be theoretical, but focused on enabling the students to program agent-based models.
Target audience: Students who are interested in modeling society or the economy.
Requirements: Programming experience is recommended by not necessary. For those whe haven’t programmed, we recommend to study the python tutorial in advance: https://docs.python.org/3/tutorial/
Topics covered in class: Introduction to Python; Classes/Agents in Python; A Spatial Voting Model; A Model of Racism and Segregation; How to create an ABM science project.

Voltar ao topo


Spatial models of choice and judgement

Professor: Royce Carroll (Rice University)
The course examines scaling methods and ideal point estimation, with a focus on methods derived from political spatial models applied to political choice data (e.g., legislative roll call and public opinion survey data). This course demonstrates how to interpret data via ideal point estimation and scaling methods using a variety of methods within the open-source programming language R. No previous knowledge of R is necessary and the course includes an introduction.
The course first covers how to analyze data from issue scales, focusing on surveys that ask respondents to place themselves and/or stimuli on issue or attribute scales. The course demonstrates how issue scales can be analyzed using both the Aldrich-McKelvey scaling and the ‘basic space’ method. The course next examines similarities and dissimilarities data, where entries represent the level of similarity or dissimilarity between objects (as in a correlation matrix). This part covers multidimensional scaling (MDS), specifically the SMACOF (Scaling by Majorizing a Complicated Function) optimization method implemented in R as well as Bayesian applications to metric MDS. Next, the course covers unfolding analysis of rating scale data such as feeling thermometers in which respondents place a politician or group on favorability scale. Finally, the course covers the unfolding of binary choice data such as legislative roll call voting. We will discuss Poole and Rosenthal’s W-NOMINATE and Poole’s Optimal Classification unfolding method, as well as Bayesian analysis of binary and ordinal choice data using Item Response Theory (IRT) implemented by Jackman’s pscl and Martin and Quinn’s MCMCpack.
Target audience: Students interested in deriving spatial preference information and dimensional structure from various types of political choice data, especially parliamentary voting and surveys relevant to legislative studies and political behavior.  Consumers of research based on these methods will also benefit from a deeper understanding of this type of research and its limitations. The course will be offered in English.
Topics covered in class:
1: R Basics and Overview of scaling methods in political data
2: Analyzing Issue Scales in survey data
3: Analyzing Similarities and Dissimilarities Data
4: Unfolding Analysis of Rating Scale Data
5: Unfolding Analysis of Binary Choice (roll call) Data

 

Voltar ao topo


Modelos hierárquicos (ou multiníveis)

Professora: Ana Cristina Collares (UNB)
Modelos hierárquicos de regressão (MHR) servem para se testar hipóteses sobre uma variável dependente quando os casos analisados podem ser agrupados em dois ou mais níveis. Por exemplo: alunos dentro de escolas, clínicas de saúde dentro de municípios, indivíduos dentro de empresas e testes laboratoriais repetidos no mesmo indivíduo. Esses modelos são necessários quando há dependência entre os casos de acordo com o grupo.
O curso introduzirá modelos de regressão com dados agrupados em dois ou três níveis utilizando o software STATA. Trabalharemos principalmente com variáveis-resposta contínuas, mas modelos de resposta binária também serão abordados. Discutiremos exemplos empíricos reais da utilização dos MHR.
Público alvo: Pessoas que desejam considerar e avaliar com rigor o “efeito do todo além do das partes”. Todos que possuem dados agregados em diferentes níveis hierárquicos e que não querem produzir resultados tendenciosos ao ignorar o ”aninhamento” das informações se beneficiarão deste curso. O curso requer familiaridade com Stata e com estatística introdutória.
Tópicos do curso:
1. Breve revisão da análise de regressão simples;
2. Introdução teórico-empírica aos modelos hierárquicos de regressão;
3. Principais modelos e sua utilização;
4. O cálculo da correlação intra-classe e sua importância;
5. Exercícios práticos com variáveis contínuas e categóricas.

Voltar ao topo


Análise fatorial e de componentes principais

Professora: Sueli Mingoti (UFMG)
Muitas são as situações de pesquisas nas quais variáveis (co)relacionadas são avaliadas simultaneamente. Nesse caso, os métodos estatísticos multivariados são os mais apropriados para a análise dos dados coletados. O objetivo desse curso é introduzir alguns dos métodos de Estatística Multivariada apropriados para a análise de dados, utilizando um enfoque aplicado. As técnicas a serem exploradas no curso são as de Análise de Componentes Principais e Análise Fatorial, muito utilizadas na construção de índices, segmentação de populações e sumarização gráfica de dados multivariados.
Metodologia do Curso: As aulas serão pautadas no livro de autoria da Profa. do curso, de título: “Análise de Dados Através de Métodos de Estatística Multivariada: Uma Abordagem Aplicada”, publicado pela Editora UFMG em 2005 e com várias re-impressões ao longo dos anos posteriores, que pode ser adquirido nas lojas da Editora UFMG e no site da Editora (www.editora.ufmg.com.br), assim como pela internet nas livrarias conveniadas. Os slides a serem utilizados no ensino do curso serão disponibilizados aos alunos. Nas aulas práticas será utilizado o software estatístico R para Windows.

Voltar ao topo


Análise de sobrevivência

Professor:  Bernardo Lanza (UFMG)
Este curso cobre problemas estatísticos na utilização de dados longitudinais (medidas repetidas no tempo). A cada dia, aumenta a oferta de dados nos quais podemos seguir as observações ao longo do tempo. No caso específico, estamos interessados em estudar eventos nos quais o tempo é o objeto de interesse. Por exemplo, o tempo até a ocorrência de um evento ou o risco de ocorrência de um evento por unidade de tempo.
Público-alvo: Se você precisa analisar dados de eventos longitudinais e tem conhecimento de estatística básica, este curso é para você. Por exemplo, estamos interessados em responder perguntas como: Quais os fatores associados ao tempo de duração do desemprego? Quais os fatores associados ao tempo de vida das empresas? O curso envolve uma série de exercícios práticos e análise de dados utilizando o software Stata. É importante que os participantes tenham conhecimento prévio do Stata e algum conhecimento de programação em Stata. Em alguns itens específicos, usaremos o R para mostrar alguns exemplos. Os participantes devem ter conhecimento de análise de regressão (teoria e prática) e conhecimento básico de inferência estatística.
Tópicos abordados nas aulas:
1) Análise de sobrevivência e funções básicas – mecanismos de censura e truncamento
2) Estimação não-paramétrica – Estimador de Kaplan-Meier
3) Estimação paramétrica
4) Modelos de regressão paramétrico –
5) Modelos de regressão semi-paramétrico – Modelo de Cox

Voltar ao topo


Análise de dados longitudinais

Professor: Marcel de Toledo Vieira (Departamento de Estatística, UFJF)
Objetivos: 1) Apresentar aos participantes os principais métodos existentes para analisar dados longitudinais; 2) Capacitar os participantes a entender os objetivos, escopo e limitações dos principais métodos para análise de dados longitudinais, bem como a aplicar estes métodos e interpretar os resultados obtidos; 3) Desenvolver o espírito crítico dos participantes quanto às aplicações, inclusive discutindo situações em que os dados longitudinais provêem de amostras complexas, ou sujeitas a não resposta e erros de medida.
Pré-requisitos: Os participantes devem ter alguma familiaridade com probabilidade e modelagem estatística, ao menos ao nível de modelos de regressão linear múltipla e regressão logística. Familiaridade com noções de Amostragem Probabilística será útil para a parte final do curso.
Resultados de aprendizagem: Os participantes deverão adquirir boa compreensão: Da natureza dos dados longitudinais, como usados em pesquisas sociais e estatísticas oficiais; Das principais abordagens existentes para análise de dados longitudinais; Quando e como aplicar os distintos métodos de análise de dados longitudinais apresentados, e como interpretar seus resultados; Como usar o Stata para implementar as diversas abordagens de análise apresentadas; Como e quando incorporar os efeitos do plano amostral no ajuste, análise e interpretação de modelos para dados longitudinais; Como prevenir possíveis impactos de erros não amostrais na análise de dados longitudinais.
Conteúdo: 1) Introdução; 2) Modelos de regressão para medidas repetidas; 3) Análise de durações e eventos em tempo discreto com dados de várias ondas; 4) Análise de durações e eventos em tempo contínuo; 5) Questões amostrais e de erros não amostrais; 6) Computação através do Stata.

Voltar ao topo

 


Equações Estruturais (SEM)

Professor: Walter Leite, University of Florida

Structural Equation Modeling (SEM) é usada para examinar relacionamentos complexos envolvendo múltiplas variáveis dependentes and independentes. Essas variáveis podem ser observadas ou latentes, e os relacionamentos includem efeitos diretos, mediação e moderação. Para  a modelação de variáveis latentes, SEM permite controlar o error de medida. Path analysis, confirmatory factor analysis, e latent growth models são tipos de SEM. O objetivo deste curso é familiarizar os estudantes com o planejamento e análise de dados usando SEM. O curso requer conhecimento de regressão linear and logística, e conhecimento de programação em R. O conhecimento mínimo de R necessário é a abilidade de importar uma base de dados em formato .csv, manipular variáveis e ajustar um modelo de regressão.

 

Tópicos:

Planejamento de um estudo usando SEM

Path Analysis

Identificação e Ajuste de modelos

Análise Fatorial Confirmatória

Validade de medida de variáveis latentes

Modelos estruturais

Medição e Moderação em SEM