Code Monkey home page Code Monkey logo

pi01-data-engineering's Introduction

Data Engineering

FastAPI deployed in Deta


Contexto

Application Programming Interface es una interfaz que permite que dos aplicaciones se comuniquen entre sí, independientemente de la infraestructura subyacente. Son herramientas muy versátiles que permiten por ejemplo, crear pipelines facilitando mover y brindar acceso simple a los datos que se quieran disponibilizar a través de los diferentes endpoints, o puntos de salida de la API.

Hoy en día contamos con FastAPI, un web framework moderno y de alto rendimiento para construir APIs con Python.

Rol a desarrollar

Como parte del equipo de data de una empresa, el área de análisis de datos le solicita al área de Data Engineering (usted) ciertos requerimientos para el óptimo desarrollo de sus actividades. Usted deberá elaborar las transformaciones requeridas y disponibilizar los datos mediante la elaboración y ejecución de una API.

Propuesta de trabajo (requerimientos)

Transformaciones: El analista de datos requiere estas, y solo estas, transformaciones para sus datos:

  • Generar campo id: Cada id se compondrá de la primera letra del nombre de la plataforma, seguido del show_id ya presente en los datasets (ejemplo para títulos de Amazon = as123)

  • Los valores nulos del campo rating deberán reemplazarse por el string “G” (corresponde al maturity rating: “general for all audiences”

  • De haber fechas, deberán tener el formato AAAA-mm-dd

  • Los campos de texto deberán estar en minúsculas, sin excepciones

  • El campo duration debe convertirse en dos campos: duration_int y duration_type. El primero será un integer y el segundo un string indicando la unidad de medición de duración: min (minutos) o season (temporadas)


Desarrollo API: Para disponibilizar los datos la empresa usa el framework FastAPI.

Las funciones utilizadas para realizar las consultas, se encuentran en el archivo main.py, dentro de la carpeta PI_01 (carpeta con los archivos necesarios para el deployment de la app a través de deta.

El analista de datos requiere consultar:

  • Cantidad de veces que aparece una keyword en el título de peliculas/series, por plataforma

  • Cantidad de películas por plataforma con un puntaje mayor a XX en determinado año

  • La segunda película con mayor score para una plataforma determinada, según el orden alfabético de los títulos.

  • Película que más duró según año, plataforma y tipo de duración

  • Cantidad de series y películas por rating


DESARROLLO DEL PROJECTO


El desarrollo del projecto consta esencialmente de 3 pasos:

1. Desarrollo de la API:

  • 1.- Deta
    • Creación de Projecto en Deta
    • Creación de Micros en Deta
  • 2.- FastAPI
  • Instalación
    • Creación del archivo main.py
    • Creación del archivo requirements.txt

2. Carga de los datasets (Transformaciones)

  • 1.- Carga de los datasets
  • 2.- Fase de transformación
  • 3.- Guardado en directorio de deta para utilizarlo en el deploy

3. Testeo de las querys

  • 1.- Ejecución de las querys definidas en el archivo main.py de FastAPI.

1. Desarrollo de la API

  • 1.- Deta

    • Creación de Projecto en Deta. A través del sitio web en la siguiente opción (el nombre del projectó sera HENRY):

    • Creación de Micros en Deta. Se realiza, utilizando la siguiente línea de código en CLI:
    deta new "my-micro" --project HENRY

    Para este caso en particular "my_micro" = PI_01.

    Al ejecutarse el código anterior, se creará una carpeta con el nombre "my_micro". Más adelante, dentro de esa carpeta, colocaremos los datasets y además, crearemos el archivo requirements.txt, en la cual indicaremos las dependencias necesarias para desplegar FastAPI en Deta.

    Para desplegar los cambios (una vez que se hayan realizado), se ejecuta la siguiente línea de código en CLI:

    deta deploy

    Una vez ejecutados los pasos anteriores, procedemos a instalar, y a la creación de los archivos requeridos por FastAPI para desplegar la app en Deta.

  • 2.- FastAPI

  • Instalación. Se realiza mediante el comando:

pip install fastapi
  • Creación del archivo main.py. En este archivo, se definen las funciones, que nos ayudarán a ejecutar las querys deseadas.

  • Creación del archivo requirements.txt. Aquí, se indican las dependencias necesarias para desplegar la app.

# Contenido del archivo `requirements.txt`
fastapi
pandas

2.- Carga de los datasets (Transformaciones)

  • 1.- Carga de los datasets
# Importamos las librerias requeridas
import pandas as pd
import re
import os
from ETL_Functions.etl_functions import load_csv, etl, concat_df

Las funciones load_csv, etl y concat_df, se encuentran definidas en el archivo etl.functions.py

# Obtenemos la lista de todos los archivos .csv en nuestro directorio `Datasets`
path = '../PI01-Data-Engineering/Datasets/'
dir_list = os.listdir(path)

print(f'Files stored in {path}:')
for files in dir_list:  
    print(files)  # imprimimos todos los archivos

# Hacemos uso de nuestra primera función para cargar los archivos .csv
# Cargando los archivos .csv
for file in dir_list:
    if re.search(r'.csv', file):
        load_csv(path, file)

La función load_csv, guardará los archivos cargados en al ruta ../PI01-Data-Engineering/Datasets_for_ETL/, para su carga en la siguient fase (ETL).

  • 2.- Fase de Transformación
# Definimos la ruta de búsqueda de nuestros archivos previamente cargados
# de la base original, para ser transformados posteriormente
path_ETL = '../PI01-Data-Engineering/Datasets_for_ETL/'
dir_list_ETL = os.listdir(path_ETL)

# Obtenemos la lista de todos los archivos .csv en nuestro directorio `Datasets_for_ETL
print(f'Files stored in {path_ETL}:')
for files_etl in dir_list_ETL:  # imprime todo los archivos
    print(files_etl)

Con ayuda de la función etl aplicamos las siguientes transformaciones:

1.- Generar campo id: Cada id se compondrá de la primera letra del nombre de la plataforma, seguido del show_id ya presente en los datasets (ejemplo para títulos de Amazon = as123)

# Ejemplo:
# Parte del código de la funcion `etl` para la generación del `id`
for files_etl in dir_list_ETL:
        if re.search(r'amazon', files_etl):
            amazon = pd.read_csv(path_ETL+files_etl)
            amazon['id'] = 'a' + amazon['show_id']

2.- Los valores nulos del campo rating deberán reemplazarse por el string “G” (corresponde al maturity rating: “general for all audiences”

# Ejemplo:
# Parte del código de la funcion `etl` para el reemplazo de valores nulos por `G`
amazon['rating'].fillna('G', inplace=True)

3.- De haber fechas, deberán tener el formato AAAA-mm-dd

# Ejemplo:
# Parte del código de la funcion `etl` para el formato de la fecha
amazon['date'] = pd.to_datetime(amazon['date_added'])

4.- Los campos de texto deberán estar en minúsculas, sin excepciones

# Ejemplo:
# Parte del código de la funcion `etl` para modificar los campos de texto a minúsculas.
for i in amazon.select_dtypes(include='object'):
                amazon[i] = amazon[i].str.lower()

5.- El campo duration debe convertirse en dos campos: duration_int y duration_type. El primero será un integer y el segundo un string indicando la unidad de medición de duración: min (minutos) o season (temporadas)

# Ejemplo:
# Parte del código de la funcion `etl` para modificar el campo `duration` a `duration_int` y `duration_type`
duration = amazon['duration'].str.split(" ", n=1, expand=True)
amazon['duration_int'] = duration[0]
amazon['duration_type'] = duration[1]
amazon['duration_type'] = amazon['duration_type'].str.replace('seasons', 'season')
amazon['duration_int'] = amazon['duration_int'].astype(int)

Asi mismo, se homologó seasons a season en el campo duration_type.

Una vez realizado el proceso de ETL, con los requerimientos solicitados, procedemos a concatenar los 4 dataframes tratados (amazon, hulu, disney, netflix).

  • 3.- Guardado en directorio de deta (../PI_01/file.csv) para utilizarlo en el deploy. Esta acción, se ejecuta, a través de una de las líneas de código, dentro de la función etl, como se muestra a continuación:
netflix = netflix.to_csv('../PI01-Data-Engineering/PI_01/netflix.csv', index=False)

Para efectuar esta tarea, hacemos uso de la función concat_df.

La concatenación de los distintos dataframes, se realiza con la función concat_df. Esta concatenación, nos permitirá dar respuesta a nuestra 5ta. query del projecto:

+ Cantidad de series y películas por rating

# Listamos los dataframes tratados
path_df_clean = '../PI01-Data-Engineering/PI_01/'
dir_list_clean = os.listdir(path_df_clean)

concat_df(path_df_clean, dir_list_clean)

3. Testeo de las querys

  • 1.- Ejecución de las querys definidas en el archivo main.py de FastAPI. Se reazlizarán a través de las funciones definidas en main.py.

Las consultas de datos que el analista requiere ejecutar, se ejecutan, especificamente, como se muestra a continuación:

  • Cantidad de veces que aparece una keyword en el título de peliculas/series, por plataforma
# Number of times a keyword appears in movies/series Title's, by platform
# 1.- get_word_count('netflix', 'love')
@app.get("/word_count/{platform}/{word}")
async def read_item(platform: str, word: str):
    if platform in ['netflix', 'hulu', 'disney', 'amazon']:
        df = pd.read_csv(platform+'.csv')
        count = df['title'].str.count(word).sum()
        response = dict(platform=platform, cantidad=str(count))
        return response
    else:
        return {f'Platform not available: {platform}. Try again.'}
  • Cantidad de películas por plataforma con un puntaje mayor a XX en determinado año
# Number of films by platform with a score greater than XX in a given year
# 2.- get_score_count('netflix', 85, 2010)
@app.get("/score_count/{platform}/{score}/{year}")
async def read_items(platform: str, score: int, year: int):
    if platform in ['netflix', 'hulu', 'disney', 'amazon']:
        df = pd.read_csv(platform+'.csv')
        number = df[(df['score'] > score) & (df['release_year'] == year)]
        number = len(number)
        response = dict(platform=platform, cantidad=str(number))
        return response
    else:
        return {f'Platform not available: {platform}. Try again.'}
  • La segunda película con mayor score para una plataforma determinada, según el orden alfabético de los títulos.
# The second highest scoring film for a given platform, based on title's alphabetical order.
# 3.- get_second_score('amazon')
@app.get("/second_score/{platform}")
async def read_item(platform: str):
    if platform in ['netflix', 'hulu', 'disney', 'amazon']:
        df = pd.read_csv(platform+'.csv')
        second = df.sort_values(by=['score', 'title'], ascending=[False, True]).iloc[1]['title']
        score = df.sort_values(by=['score', 'title'], ascending=[False, True]).iloc[1]['score']       
        response = dict(title=second, score=str(score))
        return response
  • Película que más duró según año, plataforma y tipo de duración
# Longest film according to year, platform and duration type
# 4.- get_longest('netflix', 'min', 2016)
@app.get("/longest/{platform}/{duration_type}/{year}")
async def read_items(platform: str, duration_type: str, year: int):
    if platform in ['netflix', 'hulu', 'disney', 'amazon']:
        df = pd.read_csv(platform+'.csv')
        longest = df[(df['duration_type'] == duration_type) & (df['release_year'] == year)].sort_values(by=['duration_int'], ascending=False)[['title', 'duration_int','duration_type']].head(1)
        response = longest.to_dict()
        return response
    else:
        return {f'Platform not available: {platform}. Try again.'}
  • Cantidad de series y películas por rating
# Number of series and movies by rating
# 5.- get_rating_count('18+')
@app.get("/rating_count/{rating}")
async def read_item(rating: str):
    df = pd.read_csv('df_full.csv')
    count = (df['rating'] == '18+').sum()
    response = dict(rating=rating, cantidad=str(count))
    return response

Las consultas requeridas, se pueden realizar a través del siguiente link: https://8t6o64.deta.dev/docs

pi01-data-engineering's People

Contributors

oscarszdz avatar hx-fnegrete avatar

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.