| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- CloudFormation
- Kubernetes
- stateful
- CodeCommit
- CloudWatch
- AWS
- 정보처리기능사
- 해킹송
- server
- write Through
- write back
- Round Robin
- cloudwatch-agent
- 쿠버네티스
- S3
- EKS
- DaemonSet
- CodePipeline
- Lambda
- CodeBuild
- DNS
- SQS
- istio
- APIGateway
- ASG
- 유나인버거조인트
- 3AZ
- Kinesis
- cbt
- access_log
- Today
- Total
목록전체 글 (46)
cloud bee
오늘은 ec2 instance에서 발생하는 access log를 cloudwatch-agent로 로그를 수집할 것이다. 해당 다이어그램은 다음과 같다. 블로그 과정에서 필요로 하는 서비스 목록 ✅ Amazon ec2( Amazon Elastic Compute Cloud ) ✅ IAM ( Identity and Access Management ) ✅ Amazon CloudWatch 블로그 실습 조건 ✅ amazon console account ✅ region: ap-northeast-2( 서울 리전 ) Amazon Web Service Steps Step1. Create vpc for 10.0.0.0/16 band Step2. Create a public subnet with availability zon..
다이어 그램은 위 사진과 같이 구성되어 있다. 총 3가지로 구성할 것이다. 1. S3를 생성하여 demo.csv file을 업로드한다. 2. glue catalog와 glue crawler을 생성하여 실행할 것이다. 3. 이제 크롤링된 데이터를 바탕으로 athena를 통해 쿼리를 진행할 것이다. 우선 먼저 S3를 생성하도록 해주자. windows powershell이나 cmd를 준비하여 rootcsv파일을 통해 "aws configure" 명령어를 통해 사용자 인증을 해주도록 한다. 이제 cmd에서 다음과 같은 명령어를 사용해 S3를 생성하도록 해준다. aws s3 mb s3://demo-korea-s3 이제 S3를 생성하였다면 아래 csv파일을 다운로드하여 S3에 업로드하도록 해준다. amazon we..
오늘은 write Through와 Write Back에 관한 이론을 한 번 알아볼 것이다. 다른 블로그에서 인용을 하여 이 게시물을 작성하였다. 요약정리한 내용은 아래와 같다. write Back은 write-Behind라고도 불린다. 해당 사진은 Write-Through와 Write-Back를 구분해서 나타낸다. 아래 사진을 참고한다. 이해하기가 어려울 수 있다. 아래 이론을 살펴보고 사진을 다시 보게 되면 이해가 될 것이다. > Write Through란? 우선 CPU가 주기억장치 또는 디스크로 데이터를 기입하고자 할 때 그 데이터는 먼저 캐시로 기입된다. 이때 데이터가 캐시 됨과 동시에 메모리에도 모두 저장된다. 즉 동시에 캐시와 메모리 모두 update와 같이 수행하는 작업이라고 보면 된다. 장점..