Olá!
Estou montando este repositório com a intenção de mostrar alguns projetos onde testei meus conhecimentos em Python, SQL, Power BI e Pyspark.
Ao longo dos últimos meses, fiz diferentes cursos onde utilizei as ferramentas recém citadas e concluí diversos projetos. Alguns desses projetos, desenvolvi de forma mais guiada (através dos tutores dos cursos), enquanto outros desenvolvi de forma mais autônoma, testando meus conhecimentos e tentando me desafiar.
Assim, estou começando a publicar alguns destes projetos aqui no github. Espero que logo este repositório possa sumarizar as minhas competências trabalhando pricipalmente com Python, SQL e Power BI. Devo mostrar também alguns projetos onde utilizei SPARK, MongoDB e AWS.
Muito obrigado por visitar o meu perfil e meus projetos.
Projeto 1 - Utilizo Python para fazer o processamento de um dataset que será utilizado por um banco para treinar um modelo de machine learning que fará previsões sobre a aprovação ou não da concessão de cartão de crédito para os solicitantes.
Projeto 2 - Neste projeto, utilizei SQL para fazer os processos de data cleaning de uma tabela contendo dados sobre o mercado imobiliário de uma região dos Estados Unidos. Este projeto foi publicado no Medium, então adicionei o link de acesso ao post deste projeto.
Projeto 3 - Dashboard que desenvolvi durate a realização do curso "Microsoft Power BI Desktop for Business Intelligence". A construção deste dashboard envolveu a criação de indicadores de performance, análises de tendências, comparações de desempenho e identificação de clientes de alto valor.
Projeto 4 - Dashboard de vendas que desenvolvi com os conhecimentos que adquiri no curso de Power BI. Minhas atividades neste projeto incluiram a conexão com diferentes fontes de dados, a criação do modelo relacional, a adição de colunas e medidas e a criação do relatório interativo contendo indicadores de performance e análise de tendências.
Projeto 5 - Neste projeto, utilizo Spark para realizar um ETL no dataset Home Credit Default Risk. O objetivo foi transformar os dados e, assim, criar novas variáveis para enriquecer o dataset original, conferindo maior valor preditivo ao modelo estatístico. A aplicação do Spark foi rodada utilizando o serviço EMR da AWS, e os arquivos foram armazenados e acessados no S3.