-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
bigdata aws 계정의 실제 과금 내용에서 기본적으로 나가는 항목들 파악 및 해당 비용 절감 방안 논의 #11
Comments
의견 제시는 다들 해주지만 세부적인 과금 내역에 대한건 @Chaewon14 이 챙겨주면 좋을것 같아요. |
S3 에 많은 파일이 있는데 삭제를 한건 삭제를 하고, 저장할 가치가 있다고 판단되는건 glacier 로 옮기기 |
교수님, 좀전에 유림님과 함께 이번 비용 절감에 대한 방안을 논의해보았습니다.
위와 같은 흐름으로 진행할 계획입니다. |
네 좋습니다. 이렇게 진행을 해주면 좋을듯 해요. https://github.com/workdd/KMU-s3-delete |
stopped 된 계정들에 대한 정리 필요 |
현재 1, 2단계 작업을 진행하여 그룹화까지 파악하였습니다. 앞으로는 최근 올려주신 stopped된 계정을 파악하기 위해 사용자를 파악할 수 있는 리스트를 추가적으로 작성할 계획입니다.
다음과 같이 진행할 계획입니다. |
오케이. 좋네요. 2번이 완료되었다면 해당 내용을 텍스트도 괜찮으니 공유해줄래요? |
현재 2번까지 작성된 리스트를 PDF로 보내드립니다. |
오케이. 잘 정리했네요. 3번은 굳이 필요없을듯 하고, 각각의 과금 아이템 별로 실제로 어떤 서비스에서 어떻게 사용했기에 과금이 되었는지 확인해보면 좋을것 같아요. 최종적으로 각 아이템별로 조치 방안이 나오는것도 좋을것 같아요. 다만 대부분의 아이템들은 고정적으로 나가는 항목일수 있을것 같기는 해요. 그런것들은 억지로 줄일 필요는 없을것 같구요. |
우선 과금의 비율이 큰것 부터 하나씩 해결해 봅시다. |
면담 후 받은 조언을 채원님과 이야기하였습니다.
우선 현재 상의한 큰 그림은 위의 내용과 같습니다. 그리고 앞으로 저희는 1번부터 진행해보려고 합니다.
부가설명. 현재는 1-1. 작업을 하기 위해 이전에 올려주신 https://github.com/workdd/KMU-s3-delete 를 참고할 계획입니다! |
오케이. 좋아요. S3 버킷의 경우 이상한 에러가 나서 삭제가 안되는 경우도 가끔 있더라구요. 용량의 경우 표시할때는 human-readable format (GB 혹은 MB 형태) 으로 표시 추가해주는것도 좋을것 같아요. 둘이서 만든 계획 좋으니 이대로 진행해봅시다. |
교수님 S3 버킷 리스트 코드 작성 완료했습니다!
두 리스트 모두 s3_bucket_list.txt 파일에 작성되도록 하였습니다. 아래는 추가적으로 보완할 부분입니다.
|
오케이. 좋네요. 다들 s3 버킷 보고 keep 되어야 하는 파일 있으면 미리 알려주고. |
네 유림님과 상의해보았습니다. 일단 cloud-usage처럼 모든 S3 버킷에 대한 리스트를 한달에 한번씩 슬랙에 알림으로 올리고, 그중 6개월이 지난 버킷 리스트는 따로 조만간 glacier로 보낼거라고 2달에 한번씩 알리면 어떨까 싶습니다. 즉 과정을 다시 요약하면, |
오케이. 제가 보기에는 괜찮은것 같아요. 혹시 위의 계획에 이슈가 있을것 같은 사람은 이야기를 해주면 좋고, 괜찮아 보인다면 이모티콘 표시해주면 적절히 해당 방향으로 진행해 나갈수 있을것 같아. |
그럼 이렇게 람다함수 3개 생성 진행하겠습니다! |
네 그럼요. glacier 이동 도 코드로 구현. 대략적으로 sequence 를 생각해보면, glacier 로 이동할 파일 리스트를 S3 에 저장해두면 람다 서비스에서 해당 파일을 읽어와서 glacier 옮기는 명령 수행. 해당 작업 수행 후 결과를 슬랙으로 전송 하는 방식이면 좋을것 같아요. |
교수님 제 생각에는 아래의 시퀀스가 좋아보이는데 어떠실까요?
이렇게 하면 두 번의 예고와 두 번의 변경사항 업데이트가 이루어지게 됩니다. |
네 채원학생. 새로운 계획 좋아보여요. 이렇게 해서 한번 만들어봅시다. |
현재 S3 사용량을 보고 하는 람다 함수 작성 완료했습니다. 아래 결과물처럼 출력되어 정렬만 깔끔하게 하고 다음 작업을 진행할 예정입니다! |
오케이. 좋아요. 코드는 작성되는대로 같이 review 후에 반영해봅시다. |
go_to_glacier-list lambda까지 완료되어 정리합니다. 작업 내용1. s3 버킷 리스트
2. go to glacier 버킷 리스트
추후 작업앞으로 진행할 작업은 짝수달마다 glacier에 옮겨지기로 예정된 버킷이 자동으로 glacier로 넘어갈 수 있도록 자동화하는 것입니다. 현재까지 작업된 내용 review 부탁드립니다. |
유림학생. 잘 진행하고 있네요. 코드의 경우 review 가능 하도록 pull request 를 만들어볼래요? 그래야 함께 코드 리뷰하기도 편할것 같아요. |
bigdata 계정에서 매일 과금 되는 내용을 보면 기본적으로 과금되는 내용이 항상 포함됨.
내용 별로 해당 금액을 방지할 수 있는 방안을 논의해보면 좋을듯 함
The text was updated successfully, but these errors were encountered: