-
Notifications
You must be signed in to change notification settings - Fork 8
/
idka.py
133 lines (109 loc) · 4.57 KB
/
idka.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
#!/usr/local/bin/python
# -*- coding: utf-8 -*-
import csv
import os
from datetime import datetime
import pandas as pd
import utils
def download_file(url, dt_referencia, file_name):
# verifica se o arquivo deve ser baixado
if not utils.check_download(dt_referencia, file_name):
return False
dt_referencia = dt_referencia.strftime('%d/%m/%Y')
params = {
'DataIni': dt_referencia,
'Idioma': 'PT',
'escolha': '2',
'saida': 'csv'
}
utils.download(url, params, file_name)
def import_files(folder_name, path_file_base, ultima_data_base):
file_list = os.listdir(r"downloads/"+folder_name+"/")
for file_name in file_list:
if not file_name.endswith('.csv'):
continue
path_file = os.path.join('downloads', folder_name, file_name)
with open(path_file, 'r', encoding='latin1') as f:
first_line = f.readline()
if 'Data de Referência:' not in first_line:
break
data_line = first_line.split(' ')[-1].strip()
dt_referencia = datetime.strptime(data_line, '%d/%m/%Y').date()
print('extrair', path_file)
df = pd.read_csv(
path_file,
sep=';',
skiprows=2,
encoding='latin1',
header=0,
skipfooter=3,
engine='python'
)
df['dt_referencia'] = dt_referencia
# seleciona apenas os registros com data de referencia maior
# que a data base
df = df[(df['dt_referencia'] > ultima_data_base)]
if len(df) == 0:
print('Nenhum registro a ser importado')
os.remove(path_file)
continue
# importa para o csv base
with open(path_file_base, 'a', newline='') as baseFile:
fieldnames = [
'dt_referencia',
'no_indexador',
'no_indice',
'nu_indice',
'ret_dia_perc',
'ret_mes_perc',
'ret_ano_perc',
'ret_12_meses_perc',
'vol_aa_perc',
'taxa_juros_aa_perc_compra_d1',
'taxa_juros_aa_perc_venda_d0'
]
writer = csv.DictWriter(
baseFile,
fieldnames=fieldnames,
delimiter=';',
quoting=csv.QUOTE_NONNUMERIC
)
# insere cada registro na database
for index, row in df.iterrows():
row_inserted = {
'dt_referencia': row['dt_referencia'],
'no_indexador': row['Indexador'],
'no_indice': row['Índices'],
'nu_indice': row['Nº Índice'],
'ret_dia_perc': row['Retorno (% Dia)'],
'ret_mes_perc': row['Retorno (% Mês)'],
'ret_ano_perc': row['Retorno (% Ano)'],
'ret_12_meses_perc': row['Retorno (% 12 Meses)'],
'vol_aa_perc': row['Volatilidade (% a.a.) *'],
'taxa_juros_aa_perc_compra_d1': row['Taxa de Juros (% a.a.) [Compra (D-1)]'],
'taxa_juros_aa_perc_venda_d0': row['Taxa de Juros (% a.a.) [Venda (D-0)]']
}
writer.writerow(row_inserted)
os.remove(path_file)
def main():
path_file_base = os.path.join('bases', 'idka_base.csv')
# faz o download do csv no site da anbima
url = 'http://www.anbima.com.br/informacoes/idka/IDkA-down.asp'
name_download_folder = 'idka'
path_download = utils.prepare_download_folder(name_download_folder)
# verifica a última data disponível na base
today = datetime.now().date()
cal = utils.get_calendar()
ultima_data_base = cal.offset(today, -6)
dates_range = list(utils.datetime_range(start=ultima_data_base, end=today))
for dt_referencia in reversed(dates_range):
path_file = os.path.join(
path_download, dt_referencia.strftime('%Y%m%d') + '_idka.csv')
download_file(url, dt_referencia, path_file)
utils.remove_zero_files(name_download_folder)
import_files(name_download_folder, path_file_base, ultima_data_base)
# organizar o arquivo base por dt_referencia
utils.generate_csv_base(path_file_base)
print("Arquivos baixados com sucesso e importados para a base de dados")
if __name__ == '__main__':
main()