[AWS] AWS Solutions Architect Associate (2)
AWS SAA(AWS Solutions Architect Associate) 문제 풀이
Question #9
데이터 센터에서 SMB 파일 서버를 운영하고 있는 회사가 있다.
파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스 되는 대용량 파일을 저장하며, 7일 후에는 파일에 거의 액세스하지 않는다.
총 데이터 크기가 증가하고 있으며, 회사의 총 스토리지 용량에 가깝다.
솔루션 아키텍트는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 스토리지 공간을 늘려야 한다.
또한 솔루션 아키텍트는 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리를 제공해야 한다.
어떠한 솔루션이 이러한 요구 사항에 중족한가?
지문
- AWS DataSync를 사용하여 7일이 지난 데이터를 SMB 파일 서버에서 AWS로 복사합니다.
- 회사의 스토리지 공간을 확장하기 위해 Amazon S3 파일 게이트웨이를 만듭니다. 7일 후 S3 Glacier Deep Archive로 데이터를 전환하기 위한 S3 라이프사이클 정책을 만듭니다.
- 회사의 저장 공간을 확장하기 위해 Amazon FSx for Windows File Server 파일 시스템을 만듭니다.
- 각 사용자의 컴퓨터에 Amazon S3에 액세스하기 위한 유틸리티를 설치합니다. 7일 후 S3 Glacier Flexible Retrieval로 데이터를 전환하기 위한 S3 Lifecycle 정책을 만듭니다.
풀이
문제 풀이 접기/펼치기
- DataSync 서비스는 동기화가 필요한 경우(ex: 매일 업데이트되는 온프레미스 DB에서 AWS의 DB로 마이그레이션)에 데이터를 전송하는 것에 중점을 두며, 지문의 사항은 데이터를 전송하고나 동기화할 필요가 없으며, 스토리지만 늘리면 되기 때문에 적합한 솔루션이 아니다.
S3 파일 게이트웨이를 사용하여 SMB 파일 서버를 확장하고, S3 라이프사이클 정책을 통해 7일 이후 데이터를 장기 보관에 적합한 서비스인 Glacier Deep Archive로 이동하는 방이 가장 적합하다.
- Amazon S3 파일 게이트웨이를 활용한 스토리지 확장
- S3 파일 게이트웨이는 온프레미스 파일 서버와 S3를 연결하여 사용자가 기존 SMB/NFS 인터페이스를 통해 데이터를 S3에 저장하도록 지원
- 자주 사용되는 파일은 로컬 캐시에 유지되므로 최근 파일에 대한 저지연 액세스가 가능
- S3 라이프사이클 정책을 통해 오래된 파일을 Glacier Deep Archive로 이동
- 7일이 지난 후 거의 액세스되지 않는 파일은 비용 절감을 위해 S3 Glacier Deep Archive로 이동이 가능
- S3 라이프사이클 정책을 통해 자동으로 데이터 이동이 가능하며, 스토리지 공간을 효율적으로 관리 가능
- Glacier Deep Archive는 장기 보관용으로 매우 저렴하며, 장기간 액세스가 거의 없는 데이터에 적합한 서비스
- Amazon FSx for Windows File Server는 완전 고나리형 SMB 파일 서버이므로 온프레미스 SMB 서버를 클라우드로 이전ㅁ하는데 적합하지만, 스토리지 공간을 확장하기에는 적합하지 않다.
- 각 사용자의 컴퓨터에서 직접 S3에 액세스하도록 하는 것은 비효율적이며, SMB 파일 서버 확장과 관련이 없다.
Question #10
한 회사가 AWS에서 전자상거래 웹 애플리케이션을 구축하고 있다.
이 애플리케이션은 새로운 주문에 대한 정보를 Amazon API Gateway Rest API로 보내 처리한다.
이 회사는 주문이 수신된 순서대로 처리되도록 하려고 하는데, 어떠한 솔루션이 적합한가?
지문
- API Gateway 통합을 사용하여 애플리케이션이 주문을 받으면 Amazon Simple Notification Service(Amazon SNS) 토픽에 메시지를 게시합니다. 처리를 수행하기 위해 AWS Lambda 함수를 토픽에 구독합니다.
- API Gateway 통합을 사용하여 애플리케이션이 주문을 받으면 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
- API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
- API Gateway 통합을 사용하여 애플리케이션이 주문을 받으면 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.
풀이
문제 풀이 접기/펼치기
- SNS는 메시지를 여러 구독자에게 동시에 전달하는 데 적합하지만, 메시지의 순서를 보장하지 않기에 주문이 수신된 순서대로 처리되도록 보장할 수 없다.
SQS FIFO 대기열은 메시지의 순서를 보장하고 중복 메시지를 방지할 수 있으며, 따라서 주문이 수신된 순서대로 처리되도록 보장할 수 있다.
- Amazon SQS FIFO 대기열 특징
- 순서 보장
메시지가 큐에 추가된 순서대로 처리됨 (First-In-First-Out)
- 중복 방지
동일한 메시지가 중복으로 처리되지 않도록 보장
- 메시지 그룹화
MessageGroupId
를 사용해 특정 그룹 내에서만 순서를 보장할 수 있음- 신뢰성
메시지 손실 없이 안전하게 전달
- API Gateway -> SQS FIFO -> Lambda로 구성하면 주문이 들어온 순서대로 처리됨
- 이 방법은 주문의 순서를 보장하는 방법이 아닌 주문 처리 중에 다른 요청을 차단하는 방식으로, 시스템의 성능과 확장성에 부정적인 영향을 미칠 수 있다.
- SQS 표준 대기열은 높은 처리량과 낮은 지연 시간을 제공하지만, 메시지의 순서를 보장하지 않기 때문에 주문이 수신된 순서대로 처리되도록 보장할 수 없다.
Question #11
Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있다.
EC2 인스턴스는 로컬 파일에 저장된 사용자 이름과 비밀번호를 사용하여 데이터베이스에 연결한다.
이 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 하는데, 적합한 솔루션 아키텍트는 무엇인가?
지문
- AWS Secrets Manager를 사용합니다. 자동 회전을 켭니다.
- AWS Systems Manager Parameter Store를 사용합니다. 자동 회전을 켭니다.
- AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장하기 위해 Amazon S3 버킷을 만듭니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션을 S3 버킷으로 가리킵니다.
- 각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 만듭니다. 각 EC2 인스턴스에 새 EBS 볼륨을 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션을 새 EBS 볼륨으로 가리킵니다.
풀이
문제 풀이 접기/펼치기
Secrets Manager는 데이터베이스 자격 증명, API 키 등을 안전하게 저장하고 관리할 수 있으며 로컬 파일을 사용하지 않아도 되며, 정기적으로 비밀번호를 자동으로 변경할 수 있어 운영 오버헤드가 크게 줄어든다. 또한 IAM 정책을 통해 접근 제어가 가능해 보안성이 뛰어나다.
- AWS Secrets Manager
- 데이터베이스 자격 증명, API 키, OAuth 토큰 등의 비밀 정보를 안전하게 저장 및 관리가 가능하고, 암호화된 형태로 비밀 정보를 저장하며 IAM 정책을 통해 접근 제어가 가능
- 정기적으로 비밀번호를 자동으로 변경하여 보안성을 높임
- EC2, Lambda, ECS, RDS 등 다양한 AWS 서비스와 쉽게 통합이 가능하며, 애플리케이션은 Secrets Manager API를 통해 비밀 정보를 직접 가져와서 사용이 가능
- AWS KMS와 통합되어 암호화된 형태로 비밀 정보를 저장하며, 감사 및 모니터링을 위해 AWS CloudTrail과 통합하여 사용
- Parameter Store는 비밀 정보를 저장할 수 있지만, 자동 회전 기능은 Secrets Manager에서만 제공되며, 자격 증명 자동 회전이 불가능하다.
- S3는 객체 저장 서비스로, 자격 증명 파일을 저장하는 것 자체는 가능하지만, 자동 회전 기능이 없으며, S3에 저장된 파일을 EC2를 직접 사용하기 위한 추가적인 보안 구성이 필요하기에 운영 오버헤드를 줄이는 데 도움이 되지 않는다.
- EBS 볼륨은 EC2 인스턴스에 연결할 수 있는 블록 스토리지이지만, 자동 회전 기능이 없으며, 자격 증명 파일을 EBS 볼륨으로 옮기는 것은 로컬 파일 관리와 유사한 방식으로 운영 오버헤드를 줄이지 못한다.
Question #12
글로벌 기업이 애플리케이션 로드 밸런서(ALB) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅한다.
웹 애플리케이션에는 정적 데이터와 동적 데이터가 있으며, 이 회사는 정적 데이터를 Amazon S3 버킷에 저장한다.
이 회사는 정적 데이터와 동적 데이터의 성능을 개선하고 지연 시간을 줄이려고 한다.
이 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있으며, 해당 요구 사항을 충족하기 위한 솔루션은 무엇인가?
지문
- S3 버킷과 ALB를 오리진으로 하는 Amazon CloudFront 배포를 만듭니다. Route 53을 구성하여 트래픽을 CloudFront 배포로 라우팅합니다.
- ALB를 오리진으로 하는 Amazon CloudFront 배포를 만듭니다. S3 버킷을 엔드포인트로 하는 AWS Global Accelerator 표준 가속기를 만듭니다. Route 53을 구성하여 트래픽을 CloudFront 배포로 라우팅합니다.
- S3 버킷을 오리진으로 하는 Amazon CloudFront 배포를 만듭니다. ALB와 CloudFront 배포를 엔드포인트로 하는 AWS Global Accelerator 표준 가속기를 만듭니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
- ALB를 오리진으로 하는 Amazon CloudFront 배포를 만듭니다. S3 버킷을 엔드포인트로 하는 AWS Global Accelerator 표준 가속기를 만듭니다. 두 개의 도메인 이름을 만듭니다. 한 도메인 이름을 동적 콘텐츠의 CloudFront DNS 이름으로 지정합니다. 다른 도메인 이름을 정적 콘텐츠의 가속기 DNS 이름으로 지정합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
풀이
문제 풀이 접기/펼치기
CloudFront는 글로벌 CDN1으로, 정적 및 동적 콘텐츠를 캐싱하여 지연 시간을 줄이고 성능을 개선하며, S3 버킷(정적 데이터)과 ALB(동적 데이터)를 오리진으로 셜정하면 CloudFront가 두 종류의 데이터를 모두 효율적으로 처리할 수 있다. 또한 Route 53으로 사용해 트래픽을 CloudFront 배포로 라우팅하면, 사용자는 가장 가까운 CloudFront 엣지 로케이션에서 콘텐츠를 받아 지연 시간이 최소화된다.
- Amazon CloudFront
- 글로벌 CDN 서비스로, 정적 및 동적 콘텐츠를 캐싱하여 전송하며 전 세계에 분포된 엣지 로케이션을 토해 지연 시간을 최소화함
- S3, ALB, EC2, Lambda 등 다양한 AWS 서비스를 오리진으로 사용이 가능하며, 여러 오리진을 동시에 설정할 수 있기에 정적 및 동적 데이터를 함께 처리가 가능
- DDoS 보호, SSl/TLS 암호화, AWS WAF와의 통합을 통해 보안성을 강화할 수 있으며, 실시간 로그 및 모니터링 기능을 제공
- Global Accelerator는 지연 시간을 줄이기 위한 서비스지만, 정적 데이터를 캐싱하는 기능은 없으며, S3 버킷을 Global Accelerator와 직접 통합하는 것은 비효율적이며 CloudFront만큼 성능이 좋지 않다.
- Global Accelerator는 ALB와 CloudFront를 동시에 엔드포인트로 사용할 수 없다.
- 두 개의 도메인 이름을 사용하면 관리가 복잡해지고 사용자 경험이 나빠질 수 있으며, Global Accelerator는 정적 데이터를 캐싱하지 못하므로 CloudFront만 사용하는 것보다 효율성이 떨어진다.
Question #13
한 회사가 AWS 인프라에 대해 월별 유지 관리를 수행한다.
이러한 유지 관리 활동 중에 회사는 여러 AWS 지역에서 Amazon RDS for MySQL 데이터베이스에 대한 자격 증명을 순환해야 한다.
어떤 솔루션이 가장 적은 운영 오버헤드로 요구 사항을 충족하는가?
지문
- 자격 증명을 AWS Secrets Manager의 비밀로 저장합니다. 필요한 리전에 다중 리전 비밀 복제를 사용합니다. Secrets Manager를 구성하여 일정에 따라 비밀을 순환합니다.
- 보안 문자열 매개변수를 생성하여 자격 증명을 AWS Systems Manager의 비밀로 저장합니다. 필요한 Region에 대해 다중 Region 비밀 복제를 사용합니다. 일정에 따라 비밀을 순환하도록 Systems Manager를 구성합니다.
- 서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 회전합니다.
- AWS Key Management Service(AWS KMS) 다중 지역 고객 관리 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 글로벌 테이블에 비밀을 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 비밀을 검색합니다. RDS API를 사용하여 비밀을 순환합니다.
풀이
문제 풀이 접기/펼치기
Secrets Manager는 다중 리전 비밀 복제를 지원하며, 여러 리전에서 동일한 자격 증명을 쉽게 관리할 수 있기에 각 리전에서 별도로 자격 증명을 관리할 필요하 없으며, 비밀 자동 회전 기능을 제공하기 때문에 정기적으로 자격 증명을 자동으로 변경할 수 있다.
- AWS Secrets Manager
- 데이터베이스 자격 증명, API 키, OAuth 토큰 등의 비밀 정보를 안전하게 저장 및 관리가 가능하고, 암호화된 형태로 비밀 정보를 저장하며 IAM 정책을 통해 접근 제어가 가능
- 정기적으로 비밀번호를 자동으로 변경하여 보안성을 높임
- EC2, Lambda, ECS, RDS 등 다양한 AWS 서비스와 쉽게 통합이 가능하며, 애플리케이션은 Secrets Manager API를 통해 비밀 정보를 직접 가져와서 사용이 가능
- AWS KMS와 통합되어 암호화된 형태로 비밀 정보를 저장하며, 감사 및 모니터링을 위해 AWS CloudTrail과 통합하여 사용
- 자동 회전 기능은 Secrets Manager에서만 제공되는 기능이며, AWS Systems Manager Parameter Store는 다중 리전 복제를 지원하지 않는다.
- S3 객체 저장 서비스로, 저장 증명 파일을 저장활 수 있지만 자동 회전 기능은 없으며, Lambda 함수를 사용해 수동으로 회전 로직을 구현해야하기 때문에 운영 오버헤드를 증가시킨다.
- 해당 방식은 불필요하게 복잡하며 Lambda 람수를 통해 수동으로 회전 로직을 구현해야 하는 등의 운영 오버헤드가 크게 증가한다.
Question #14
한 회사가 애플리케이션 로드 벨런서 뒤의 Amazon EC2 인스턴스에서 전자상거래 애플리케이션을 실행한다.
인스턴스는 여러 가용성 영역에 걸쳐 Amazon EC2 자동 확장 그룹에서 실행되며, 자동 확장 그룹은 CPU 사용률 메트릭에 따라 확장된다.
전자상거래 애플리케이션은 대규모 EC2 인스턴스에 호스팅된 MySAL 8.0 데이터베이스에 트랜잭션 데이터를 저장한다.
애플리케이션 부하가 증가함에 따라 데이터베이스 성능이 빠르게 저하되며, 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리한다.
이 회사는 높은 가용성을 유지하면서 예측할 수 없는 읽기 위크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원한다.
해당 사항에 적합한 솔루션은 무엇인가?
지문
- 리더 및 컴퓨팅 기능에 단일 노드를 갖춘 Amazon Redshift를 사용합니다.
- 단일 AZ 배포로 Amazon RDS 사용 다른 가용성 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
- Amazon Aurora를 Multi-AZ 배포와 함께 사용합니다. Aurora Replicas로 Aurora Auto Scaling을 구성합니다.
- EC2 스팟 인스턴스와 함께 Memcached에 Amazon ElastiCache를 사용합니다.
풀이
문제 풀이 접기/펼치기
- Amazon Redshift는 데이터 웨어하우징2용으로 설계되었으며, OLTP3 워크로드에는 적합하지 않으며, 단일 노드 구성은 고가용성을 보장하지 않는다.
- 단일 AZ(Single-AZ4) 배포는 고가용성을 보장하지 않으며, 리더 인스턴스를 수동으로 추가 및 관리해야 하므로 운영 오버헤드가 증가한다.
Aurora는 MySQL 및 PostgreSQL과 호환되는 고성능 관계형 데이터베이스로, Aurora Replicas(읽기 전용 복제본)을 통해 일기 워크로드를 분산할 수 있으며 Aurora Auto Scaling을 사용하면 읽기 워크로드가 증가할 때 자동으로 복제본을 추가할 수 있다.
- Amazon Aurora
- Aurora는 MySQL 및 PostgreSQL과 호환되는 고성능 관계형 데이터베이스로, 읽기 전용 복제본(Aurora Replicas)을 통해 읽기 워크로드를 분산 가능
- Multi-AZ5 배포를 통해 높은 가용성을 보장
- 읽기 워크로드가 증가할 때 자동으로 복제본을 추가하며, 부하가 줄어들면 복제본을 제거하여 비용 효율성 유지 가능
- 기존 MySQL보다 최대 5배의 성능을 제공하며 스토리지 자동 확장 기능으로 용량 걱정 X
- AWS KMS를 통한 암호화를 지원하며, 자동 백업 및 패치 적용
- ElasticCache는 캐싱 솔루션으로, 데이터베이스의 읽기 워크로드를 완전히 대체할 수 없으며, 스팟 인스턴스는 비용이 저렴하지만 중단 가능성이 있어 고가용성을 보장하지 않는다.
Question #15
한 회사가 최근 AWS로 마이그레이션했고 프로덕션 VPC에서 유입되고 유출되는 트래픽을 보호하는 솔루션을 구현하려고 한다.
이 회사는 온프레미스 데이터 센터에 검사 서버를 두었으며, 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했다.
이 회사는 AWS 클라우드에서 동일한 기능을 원하는데 이러한 요구 사항에 충족하는 솔루션은 무엇인가?
지문
- 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용합니다.
- 트래픽 미러링을 사용하여 프로덕션 VPC의 트래픽을 미러링하여 트래픽 검사 및 필터링을 수행합니다.
- AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 만듭니다.
- AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 만듭니다.
풀이
문제 풀이 접기/펼치기
- Amazon GuardDuty는 위험 탐지 서비스로, 트래픽 검사 및 필터링 기능을 제공하지 않으며, 이상 징후를 탐지하고 경고를 생성하지만, 트래픽을 차단하지는 않는다.
- 트래픽 미러링은 트래픽을 복제하여 분석할 수 있지만, 실시간 필터링 기능은 없으며 또한, 별도의 검사 서버를 구성해야 하므로, 운영 오버헤드가 증가한다.
AWS 네트워크 방화벽은 트래픽 검사 및 필터링을 위한 완전관리형 서비스로, 유입/유출 트래픽을 실시간으로 검사하고 차단 및 필터링할 수 있으며, 프로덕션 VPC와 쉽게 통합할 수 있다.
- Amazon 네트워크 방화벽
- 상태 저장(stateful) 방화벽 규칙을 사용해 트래픽 검사 및 필터링이 가능하며, 사용자 정의 규칙 및 관리형 규칙 그룹을 지원
- 패킷 수준에서 트래픽을 검사하며, 악성 트래픽을 신시간으로 차단하고 [#Suricata][suritaca] 규칙 엔진을 사용해 고급 보안 기능을 제공
- VPC, Transit Gateway, Gateway Load Balancer와 통합이 가능하며, AWS Firewall Manager를 통해 중앙 집중식 관리 지원
- AWS KMS를 통한 암호화를 지원하며, 자동 확장 기능으로 트래픽 증가에 대응 가능
- Amazon Firewall Manager는 방화벽 규칙을 중앙에서 관리하는 서비스이지만 트래픽 검사 및 필터링 기능을 직접 제공하지 않으며, AWS 네트워크 방화벽, WAF, Shield 등의 규칙을 관리하는 데 사용한다.
Question #16
한 회사가 AWS에서 데이터 레이크를 호스팅한다.
데이터 레이크는 Amazon S3와 PostgreSQL용 Amazon RDS의 데이터로 구성되며, 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요하다.
회사의 경영진만 모든 시각화에 대한 전체 액세스 권한을 가져야 하며, 나머지 회사는 제한된 액세스 권한만 가져야 한다.
이러한 요구 사항에 어떠한 솔루션이 적합한가?
지문
- Amazon QuickSight에서 분석을 만듭니다. 모든 데이터 소스를 연결하고 새로운 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
- Amazon QuickSight에서 분석을 만듭니다. 모든 데이터 소스를 연결하고 새로운 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
- Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 만듭니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 만들어 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
- Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 만듭니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
풀이
문제 풀이 접기/펼치기
- 사용자별 액세스 제어가 필요하기 때문에 IAM 역할은 해당 사항에 적합하지 않는다.
Amazon QuickSight는 데이터 시각화 및 보고를 위한 완전관리형 서비스로 S3와 RDS를 포함한 다양한 데이터 소스와 쉽게 연결이 가능하며, 사용자 및 그룹 기반의 액세스 제어를 지원하기 때문에 경영진과 직원에게 별도의 액세스 권한을 부여할 수 있다.
- Amazon QuickSight
- 데이터 시각화 및 보고를 위한 완전관리형 서비스로, S3, RDS, Redshift, Anthena 등 다양한 데이터 소스와 통합 가능
- 대시보드, 차트, 그래프 등을 통해 데이터를 시각화할 수 있으며, ML 기반의 인사이트를 제공 (예측 분석 등)
- 사용자 및 그룹 기반의 액세스 제어를 지원하며, IAM 정책을 통해 세부적인 권한 관리 가능
- AWS 서비스와 완벽하게 통합되어 있으며, 자동 확장 기능으로 대규모 데이터 처리가 가능
- AWS Glue는 데이터 준비 및 ETL6 작업에 적합하지만, 데이터 시각화 기능이 없으며 S3 버킷 정책은 파일 수준의 액세스 제어만 가능하며, 세부적인 사용자별 권한 관리가 어렵다.
- Athena는 SQL 쿼리를 실행하고 결과를 반환할 수 있지만, 데이터 시각화 기능이 없으며 S3 버킷 정책은 파일 수준의 액세스 제어만 가능하며, 세부적인 사용자별 권한 관리가 어렵다.
참고 사이트
콘텐츠 전송 네트워크 ↩︎
데이터 웨어하우스(DW)는 다양한 소스의 대량의 데이터를 연결하고 조정하는 디지털 저장 시스템 ↩︎
온라인 트랜잭션 처리 ↩︎
RDS 인스턴스가 단일 가용 영역(AZ : Availiability Zone)에만 배치 ↩︎
RDS 인스턴스가 두 개(이상)의 다른 가용 영역에 복제 ↩︎
ETL은 추출(Extract), 변환(Transform), 로드(Load)를 나타내며 조직에서 여러 시스템의 데이터를 단일 데이터베이스, 데이터 스토어, 데이터 웨어하우스 또는 데이터 레이크에 결합하기 위해 일반적으로 허용되는 방법 ↩︎