Reto DevOps integrando Scrapy, GitHub API, GitHub Actions y más para obtener información de los repositorios más populares.
- Requiere python 3.6 o superior.
python -m pip install scrapy
cd my_git_hub_spider
scrapy crawl GitHubSpider -o github.csv -t csv
- Requiere instalar el modulo requests
python -m pip install requests
- Tras ejecutar el spider se necesita volver a la carpeta raiz del proyecto
- Desde ahí llamar al script pasando como parámetros archivo de entrada y archivo de salida
cd ..
python gitHubApiCaller.py <inputFile> <outputFile>
echo Por ejemplo:
python gitHubApiCaller.py ./my_git_hub_spider/github.csv ./githubWithCommits.csv