Agora que já sabemos bastante sobre Raspagem de dados, vamos automatizar mais ainda o processo e vamos rodar a Spider na nuvem.
- Para esse tutorial vamos precisar instalar shub.
pip install shub
- Tambem vamos precisar criar uma conta no site onde iremos hospedar nossa Spider.
Vamos criar um projeto onde terão todos os dados necessários.
scrapy startproject Cloud
Agora vamos editar nossa spider, acesse a pasta /Cloud/Spiders
, acesse o arquivo __init__.py
, essa será nossa spider, eu estarei usando o código do tutorial Navegando entre paginas. Após alterar o arquivo e salvar, é hora de testar se a Spider esta funcionando como o planejado.
Dessa vez será um pouco diferente, vamos usar o comando crawl
e passando como parâmetro o nome dado para a Spider que criamos.
scrapy crawl quotes
Agora que já testamos nossa Spider e o projeto, ta na hora de configurar o app para nossa Spider.
- Vamos ter que realizar o login no
shub login
, será solicitado a API Key, cobri o meu por razões de segurança. - Agora vamos dar o
shub deploy <numero-do-projeto>
para enviar nossa spider para o servidor (o número do projeto tambem se encontra na página).