Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

s3 아카이빙 중 5GB 이상 파일의 멀티파트 아카이빙 자동화 구현 #31

Open
Kim-Yul opened this issue Oct 26, 2023 · 0 comments

Comments

@Kim-Yul
Copy link
Collaborator

Kim-Yul commented Oct 26, 2023

멀티파트 아카이빙

5GB 가 넘는 파일이 존재하는 버킷의 이름과 이 파일에 접속할 수 있는 키를 알고 있다면 멀티파트 아카이빙이 가능합니다.
코드 상에서 standard class 에 있는 파일이 5GB 가 넘는다면 수동으로 아카이빙 하거나 멀티파트 아카이빙 방법을 이용해야 합니다.

멀티파트 아카이빙은 5GB로 파일을 쪼개서 아카이빙 합니다.
다만 이 경우 동기적으로 실행하기 때문에 현재 아카이빙을 진행하는 파일에서 함께하는 것은 어려울 것으로 판단됩니다.
현재 아카이빙을 진행하는 파일인 aws_auto_s3_archiving.py에서 분리되어 따로 진행되어서 구현해야만 합니다.

작업이 오래걸린다는 점에서 인스턴스 내에서 실행해야 합니다.
또한, aws_auto_s3_archiving.py 가 실행된 이후 멀티파트 아카이빙이 실행해야 할 것으로 판단됩니다.
현재 archiving 파트에서 파일에 접속할 수 있는 키를 담은 리스트를 생성하고 슬랙으로 출력하고 있습니다.
이 부분에 버킷 이름을 함께 보관하고, 멀티파트 아카이빙을 진행하는 파일에 넘겨주어 실행하여 자동화를 구현하는 방법이 있어 이슈 오픈했습니다.

관련 이슈 : #25

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant