Q1 회사는 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB 입니다. 각 사이트에는 고속 인터넷 연결이 있습니다. 이 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 대상 S3 버킷에서 S3 Transfer Acceleration 을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 전 세계에 분산된 각 사이트에서 대량의 데이터를 하나의 S3 버킷으로 가장 빠르게 전송하는 가장 효율적인 방법은 S3 Transfer Acceleration을 활용하는 것입니다. 이 기능은 전 세계 곳곳에 위치한 엣지 로케이션을 거쳐 AWS 전용 네트워크망을 사용하므로 일반 인터넷 연결보다 훨씬 빠르고 안정적인 업로드가 가능합니다. 다른 옵션인 교차 리전 복제는 리전 사이의 복제에 특화되어 있으며, Snowball 장비는 오프라인 이송 방식이라 매일 발생하는 대용량 데이터를 정기적으로 처리하기에는 운영 효율성이 떨어집니다. 💡 이 문제의 핵심 용어 S3 Transfer Acceleration: AWS의 전용 네트워크 망을 사용하여 S3로의 데이터 업로드 속도를 높여주는 기능 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q2 회사는 독점 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하고 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처에 대한 최소한의 변경으로 분석을 수행해야 합니다. 솔루션 설계자는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? Amazon Redshift 를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다. Amazon CloudWatch Logs 를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다. Amazon S3 와 함께 Amazon Athena 를 직접 사용하여 필요에 따라 쿼리를 실행합니다. AWS Glue 를 사용하여 로그를 분류합니다. Amazon EMR 에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. S3 버킷에 저장된 JSON 방식의 로그를 별도의 데이터 이동이나 서버 구축 없이 즉석에서 SQL로 분석하기에는 Amazon Athena가 가장 적합합니다. Athena는 서버리스 서비스로 운영 오버헤드가 거의 없으며 기존 아키텍처를 고칠 필요도 없습니다. 반면 Redshift는 데이터를 로드하는 과정이 필요하고, EMR은 클러스터를 관리해야 하는 부담이 있어 최소한의 운영 오버헤드라는 조건에 부합하지 않습니다. 💡 이 문제의 핵심 용어 Athena: S3에 있는 데이터를 표준 SQL로 직접 분석할 수 있는 서버리스 대화형 쿼리 서비스 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q3 회사는 AWS Organizations 를 사용하여 여러 부서의 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations 의 조직 내 계정 사용자로만 제한하려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? 조직 ID 에 대한 참조와 함께 aws:PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다. 각 부서에 대한 조직 단위(OU)를 만듭니다. aws:PrincipalOrgPaths 전역 조건 키를 S3 버킷 정책에 추가합니다. AWS CloudTrail 을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 그에 따라 S3 버킷 정책을 업데이트합니다. S3 버킷에 액세스해야 하는 각 사용자에 태그를 지정합니다. aws:PrincipalTag 전역 조건 키를 S3 버킷 정책에 추가합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. AWS Organizations 환경에서 특정 조직 전체에 대해서만 리소스 접근을 허용하고 싶을 때는 버킷 정책의 조건 절에 aws:PrincipalOrgID를 사용하는 것이 가장 깔끔한 해결책입니다. 이 키를 통해 조직 ID만 지정하면 조직 내의 모든 계정이 안전하게 접근할 수 있도록 제어할 수 있습니다. 다른 방법인 개별 태그 지정이나 복잡한 모니터링 로직은 계정이나 사용자가 늘어날수록 관리 포인트가 많아져 비효율적입니다. 💡 이 문제의 핵심 용어 AWS Organizations: 여러 AWS 계정을 중앙에서 통합 관리하고 제어하는 서비스 aws:PrincipalOrgID: AWS 리소스 정책에서 특정 조직 내의 보안 주체만 허용할 때 사용하는 조건 키
Q4 애플리케이션은 VPC 의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 합니다. Amazon S3 에 대한 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까? S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다. Amazon CloudWatch Logs 로 로그를 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다. Amazon EC2 에 인스턴스 프로파일을 생성하여 S3 액세스를 허용합니다. S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 있는 Amazon API Gateway API 를 생성합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. VPC 내부의 EC2 인스턴스가 퍼블릭 인터넷을 통하지 않고 S3와 직접 통신하며 데이터를 주고받으려면 게이트웨이 VPC 엔드포인트를 생성해야 합니다. 이 방식을 통해 보안을 강화하면서도 프라이빗한 연결 경로를 확보할 수 있습니다. 단순히 인스턴스 프로파일을 통해 권한을 주는 것만으로는 네트워크 경로 자체가 인터넷을 우회하도록 만들 수 없으므로 엔드포인트 설정이 필수적입니다. 💡 이 문제의 핵심 용어 VPC Endpoint (Gateway): 인터넷 게이트웨이 없이 VPC와 S3/DynamoDB를 프라이빗하게 연결하는 서비스 EC2: 클라우드에서 빌려 쓰는 가상 서버 인스턴스
Q5 회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS 에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다. 솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까? 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다. 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer 를 구성합니다. 두 EBS 볼륨의 데이터를 Amazon EFS 로 복사합니다. 새 문서를 Amazon EFS 에 저장하도록 애플리케이션을 수정합니다. 두 서버 모두에 요청을 보내도록 Application Load Balancer 를 구성합니다. 올바른 서버에서 각 문서를 반환합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. EBS 볼륨은 특정 가용 영역 내에서 단일 인스턴스에 종속적인 구조를 가집니다. 따라서 여러 가용 영역의 서버가 동일한 파일 세트를 공유하며 서비스하려면 네트워크 기반의 공유 스토리지인 Amazon EFS로 데이터를 옮겨야 합니다. 이렇게 EFS를 마운트하여 사용하면 어떤 서버로 접속하더라도 사용자는 동일한 문서를 중단 없이 확인할 수 있게 됩니다. 💡 이 문제의 핵심 용어 EFS (Elastic File System): 여러 개의 EC2 인스턴스가 동시에 공유해서 사용할 수 있는 네트워크 기반 확장형 파일 스토리지 EBS: EC2 인스턴스 한 대에 붙여서 사용하는 하드디스크 역할의 전용 저장소
Q6 회사는 NFS 를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB 에서 500GB 입니다. 총 스토리지는 70TB 이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3 로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI 를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 장치로 데이터를 전송합니다. AWS 가 데이터를 Amazon S3 로 가져올 수 있도록 디바이스를 반환합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 공용 VIF(가상 인터페이스)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 70TB라는 대규모 데이터를 이동시키면서 기존 네트워크 대역폭을 소모하지 않으려면 물리적 장치를 통한 오프라인 이송 방식인 AWS Snowball Edge를 사용하는 것이 최선입니다. 인터넷을 통한 직접 전송이나 파일 게이트웨이 방식은 수십 테라바이트의 데이터를 옮기는 동안 회선에 큰 부담을 줄 수 있어 최소 네트워크 대역폭 사용이라는 목적에 어긋납니다. 💡 이 문제의 핵심 용어 Snowball Edge: 대량의 데이터를 오프라인으로 이송하기 위해 AWS에서 제공하는 물리적 데이터 이송 장비 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q7 회사에 들어오는 메시지를 수집하는 응용 프로그램이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 급격하게 변하며 때로는 초당 100,000 개로 갑자기 증가하기도 합니다. 이 회사는 솔루션을 분리하고 확장성을 높이고자 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? Amazon Kinesis Data Analytics 에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다. Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다. 단일 샤드를 사용하여 Amazon Kinesis Data Streams 에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB 에 저장합니다. 메시지를 처리하기 위해 DynamoDB 에서 읽도록 소비자 애플리케이션을 구성합니다. 여러 Amazon Simple Queue Service(Amazon SQS) 구독이 있는 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 하나의 메시지를 수많은 개별 서비스로 동시에 전달하며 시스템 간 의존성을 낮추려면 Amazon SNS와 SQS 대기열을 조합한 팬아웃 구조가 가장 적합합니다. SNS에서 뿌려준 메시지를 각 서비스용 SQS 큐가 받아내면, 트래픽이 갑자기 치솟는 상황에서도 각 마이크로서비스가 자신의 처리 속도에 맞춰 안정적으로 데이터를 처리할 수 있어 확장성이 뛰어납니다. 💡 이 문제의 핵심 용어 SNS: 구독자들에게 메시지를 푸시하는 알림 서비스 (Fan-out 구조용) SQS: 메시지를 대기열에 보관하여 비동기식으로 처리하게 해주는 큐 서비스
Q8 회사에서 분산 애플리케이션을 AWS 로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까? 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling 을 구성합니다. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling 을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail 을 구성합니다. 기본 서버의 부하를 기반으로 EC2 Auto Scaling 을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨팅 노드의 부하를 기반으로 EC2 Auto Scaling 을 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 시스템의 탄력성을 극대화하려면 작업을 SQS 대기열에 담아두고, 처리 대기 중인 작업의 양에 맞춰 컴퓨팅 서버의 수를 자동으로 조절해야 합니다. 이렇게 대기열 크기를 기준으로 Auto Scaling을 설정하면 실제 워드로드의 변화에 가장 민감하고 효율적으로 대응할 수 있으며, 서버의 결합도를 낮추는 현대적인 아키텍처를 완성할 수 있습니다. 💡 이 문제의 핵심 용어 SQS: 시스템 간 메시지를 주고받는 대기열 서비스(분산 처리용) Auto Scaling: 서버 부하에 따라 자동으로 인스턴스 수를 늘리거나 줄이는 기능
Q9 회사는 데이터 센터에서 SMB 파일 서버를 실행하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스하는 대용량 파일을 저장합니다. 7 일이 지나면 파일에 거의 액세스하지 않습니다. 총 데이터 크기가 증가하고 있으며 회사의 총 저장 용량에 가깝습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리도 제공해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? AWS DataSync 를 사용하여 SMB 파일 서버에서 AWS 로 7 일이 지난 데이터를 복사합니다. Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장합니다. S3 수명 주기 정책을 생성하여 7 일 후에 데이터를 S3 Glacier Deep Archive 로 전환합니다. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하여 회사의 저장 공간을 확장합니다. 각 사용자의 컴퓨터에 유틸리티를 설치하여 Amazon S3 에 액세스합니다. S3 수명 주기 정책을 생성하여 7 일 후 데이터를 S3 Glacier Flexible Retrieval 로 전환합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. S3 파일 게이트웨이는 온프레미스의 로컬 캐시를 활용해 자주 쓰이는 최신 파일에는 아주 빠른 접근 속도를 제공합니다. 동시에 오래된 파일은 S3로 자동 이동시키고 수명 주기 정책을 통해 Glacier Deep Archive로 보냄으로써 저장 비용을 획기적으로 낮출 수 있습니다. 이는 저장 용량 한계 문제를 해결하면서도 성능과 비용 효율성을 동시에 잡을 수 있는 가장 이상적인 하이브리드 솔루션입니다. 💡 이 문제의 핵심 용어 Storage Gateway (S3): 온프레미스 환경에서 표준 파일 시스템 인터페이스를 통해 S3 스토리지를 사용할 수 있게 해주는 하이브리드 스토리지 S3 Glacier: 자주 액세스하지 않는 데이터의 장기 아카이빙을 위한 매우 저렴한 스토리지 클래스
Q10 회사는 AWS 에서 전자 상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 처리할 Amazon API Gateway REST API 에 새 주문에 대한 정보를 보냅니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. AWS Lambda 함수를 주제에 구독하여 처리를 수행합니다. API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다. API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다. API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 주문 처리와 같이 데이터가 입력된 순서 그대로 선입선출되는 것이 중요한 시스템에서는 SQS FIFO 대기열을 사용해야 합니다. 일반 대기열은 순서를 보장하지 않지만 FIFO 대기열은 메시지 순서를 완벽히 유지하며 한 번만 정확하게 처리되도록 관리해주어 주문 중복이나 순서 꼬임 등의 문제를 원천적으로 방지합니다. 💡 이 문제의 핵심 용어 SQS FIFO Queue: 메시지가 들어온 순서대로 한 번만 처리되도록 보장하는 특수한 대기열 시스템 API Gateway: 모든 규모의 API를 손쉽게 생성, 유지 관리 및 보안 조치를 할 수 있는 관리 서비스
Q11 회사에 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다. 솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까? AWS Secrets Manager 를 사용합니다. 자동 회전을 켭니다. AWS Systems Manager Parameter Store 를 사용합니다. 자동 회전을 켭니다. AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다. 각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 서버 내부에 파일로 보관하던 위험한 비밀번호 정보를 가장 안전하고 효율적으로 관리하는 방법은 AWS Secrets Manager를 사용하는 것입니다. 이 서비스는 암호를 암호화하여 보관할 뿐만 아니라 일정 기간마다 암호를 자동으로 변경해주는 기능까지 제공하여 자격 증명 노출 사고를 방지하고 운영 부담을 획기적으로 낮춰줍니다. 💡 이 문제의 핵심 용어 Secrets Manager: 데이터베이스 암호 등 민감한 정보를 안전하게 암호화하여 저장하고 자동 교체 기능을 제공하는 서비스 Aurora: AWS가 구축한 고성능 관계형 데이터베이스 엔진
Q12 글로벌 회사는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터 및 동적 데이터의 성능을 개선하고 대기 시간을 줄이기를 원합니다. 회사는 Amazon Route 53 에 등록된 자체 도메인 이름을 사용하고 있습니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? S3 버킷과 ALB 를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53 을 구성합니다. ALB 가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53 을 구성합니다. S3 버킷을 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다. ALB 가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 하나의 도메인 이름이 동적 콘텐츠의 CloudFront DNS 이름을 가리키도록 합니다. 다른 도메인 이름이 정적 콘텐츠에 대한 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. S3에 저장된 정적 웹 파일과 가변적인 동적 콘텐츠를 동시에 최적화하는 가장 강력한 수단은 CloudFront를 배포하는 것입니다. 엣지 로케이션을 통해 전 세계 어디서든 가까운 서버에서 데이터를 받아볼 수 있게 설정하면 전반적인 지연 시간이 대폭 줄어듭니다. 또한 하나의 도메인 아래에서 여러 데이터 소스를 연동할 수 있어 관리도 간편해집니다. 💡 이 문제의 핵심 용어 CloudFront: 전 세계 엣지 로케이션을 통해 콘텐츠 전송 속도를 높여주는 CDN 서비스 Route 53: AWS의 클라우드 DNS(도메인 이름 서비스)
Q13 회사는 AWS 인프라에 대한 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에서 MySQL 용 Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? 자격 증명을 AWS Secrets Manager 에 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 보안 암호를 교체하도록 Secrets Manager 를 구성합니다. 보안 문자열 파라미터를 생성하여 AWS Systems Manager 에 자격 증명을 보안 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 암호를 교체하도록 Systems Manager 를 구성합니다. 서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 교체합니다. AWS Key Management Service(AWS KMS) 다중 리전 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 암호를 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB 에서 암호를 검색합니다. RDS API 를 사용하여 비밀을 교체합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 여러 리전에 걸친 통합 관리와 비밀번호 교체 자동화를 가장 손쉽게 처리하는 도구는 역시 Secrets Manager입니다. 복잡한 프로그래밍이나 수동 작업 없이도 다중 리전에 데이터를 실시간으로 복제해주고, 유지 관리 주기에 맞춰 알아서 정보를 갱신해주므로 사람이 일일이 관리할 때 발생할 수 있는 보안 취약점을 완벽히 해결해줍니다. 💡 이 문제의 핵심 용어 Secrets Manager: 보안 자격 증명을 안전하게 관리하고 일정에 따라 자동 교체하며 다른 리전으로 복제까지 가능한 관리형 서비스 RDS: 관계형 데이터베이스(MySQL, PostgreSQL 등)를 자동으로 관리해주는 서비스
Q14 회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 전자 상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 메트릭을 기반으로 확장됩니다. 전자 상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 트랜잭션 데이터를 저장합니다. 애플리케이션 로드가 증가하면 데이터베이스의 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 이 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift 를 사용하십시오. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS 를 구성합니다. 다중 AZ 배포와 함께 Amazon Aurora 를 사용합니다. Aurora 복제본을 사용하여 Aurora Auto Scaling 을 구성합니다. EC2 스팟 인스턴스와 함께 Memcached 용 Amazon ElastiCache 를 사용합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 관계형 데이터베이스 중 읽기 부하를 감지해 자동으로 성능을 키우고 싶다면 Amazon Aurora가 정답입니다. Aurora는 최대 15개까지 읽기 전용 복제본을 자동으로 생성하고 제거하는 기능을 갖추고 있어 트래픽 급증 시에도 안정적인 응답을 보장합니다. 또한 고성능 분산 스토리지를 통해 일반 DB보다 훨씬 빠른 성능과 높은 가용성을 동시에 제공합니다. 💡 이 문제의 핵심 용어 Aurora: AWS 클라우드 전용으로 제작된 고성능, 자동 확장 지원 관계형 데이터베이스 Read Replica: 읽기 전용 복제본을 생성하여 데이터베이스의 읽기 부하를 분산시키는 기술
Q15 최근에 AWS 로 마이그레이션한 회사가 프로덕션 VPC 로 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 사내 데이터 센터에 검사 서버를 가지고 있었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 회사는 AWS 클라우드에서 동일한 기능을 갖기를 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 프로덕션 VPC 에서 트래픽 검사 및 트래픽 필터링에 Amazon GuardDuty 를 사용합니다. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC 의 트래픽을 미러링합니다. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC 에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다. AWS Firewall Manager 를 사용하여 프로덕션 VPC 에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 대규모 기업급 방화벽 장비와 동일한 수준으로 트래픽 한 줄 한 줄을 정밀하게 검사하고 걸러내고 싶다면 AWS Network Firewall을 도입해야 합니다. VPC 전체의 경계에서 L3부터 L7 레이어까지 포괄하는 고성능 패킷 분석과 규칙 기반 차단 기능을 제공하여 네트워크 보안 수준을 온프레미스 장비 이상으로 강력하게 끌어올릴 수 있습니다. 💡 이 문제의 핵심 용어 Network Firewall: VPC 전체에 대한 세밀한 트래픽 제어 및 보안 필터링을 제공하는 고성능 방화벽 서비스 VPC: AWS 클라우드 내에 나만의 전용 가상 네트워크 공간
Q16 회사는 AWS 에서 데이터 레이크를 호스팅합니다. 데이터 레이크는 Amazon S3 및 PostgreSQL 용 Amazon RDS 의 데이터로 구성됩니다. 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리 팀만 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 나머지 회사는 제한된 액세스 권한만 가져야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? Amazon QuickSight 에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다. Amazon QuickSight 에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다. Amazon S3 의 데이터에 대한 AWS Glue 테이블 및 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3 에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다. Amazon S3 의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena 연합 쿼리를 사용하여 PostgreSQL 용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena 를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3 에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 여러 곳에 흩어진 데이터들을 하나로 묶어 아름다운 보고서로 만들고 관리하는 가장 세련된 방법은 Amazon QuickSight를 사용하는 것입니다. 대시보드 형태로 구성하여 누구는 전부 다 볼 수 있고, 누구는 일부만 볼 수 있게 하는 그룹별 권한 제어 기능이 매우 강력하여 기업용 데이터 시각화 솔루션으로 가장 완성도 높은 경험을 제공합니다. 💡 이 문제의 핵심 용어 QuickSight: 대규모 데이터를 시각화하고 대시보드를 통해 비즈니스 분석을 수행하는 BI 서비스 Data Lake: 정형/비정형 데이터를 한꺼번에 저장하고 분석할 수 있는 대규모 중앙 저장소
Q17 회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 이 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 설계자는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다. 솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까? S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. 역할을 EC2 인스턴스에 연결합니다. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. 정책을 EC2 인스턴스에 연결합니다. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 서버가 리소스에 직접 접근해야 할 때는 번거롭게 아이디와 비밀번호를 심지 않는 것이 보안의 기본입니다. 인스턴스에 부여하는 배지 같은 개념인 IAM 역할을 활용하면 보안 사고 발생 시에도 자격 증명이 노출되지 않고, 운영 시스템 수준에서 정밀하고 안전하게 접근 권한을 관리할 수 있습니다. 💡 이 문제의 핵심 용어 IAM Role: 특정 서비스나 사용자가 AWS 리소스에 접근할 수 있도록 임시 권한을 부여하는 장치 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q18 애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로 서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수로 이미지를 처리 및 압축하고, 다른 S3 버킷에 압축된 형태로 이미지를 저장해야 합니다. 솔루션 설계자는 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다. 이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2 개를 선택하세요.) Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다. 새 업로드에 대해 S3 버킷을 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 텍스트 파일을 사용하여 처리된 이미지를 추적합니다. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다. Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성하여 S3 버킷을 모니터링합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample Notification Service(Amazon SNS) 주제에 알림을 보냅니다. 정답 확인 및 해설 📖 해설 정답은 A와 B입니다. 갑자기 수만 장의 이미지가 업로드되어도 시스템이 터지지 않게 하려면 전용 대기열 서비스인 SQS를 중간에 배치해야 합니다. S3에서 신호를 주면 SQS가 차례대로 줄을 세우고, Lambda가 여유가 생길 때마다 하나씩 꺼내어 완벽하게 압축을 실행하는 이 방식은 분산 시스템 설계의 가장 정석적인 고효율 모델입니다. 💡 이 문제의 핵심 용어 SQS: 시스템 간 메시지를 주고받는 대기열 서비스(분산 처리용) Lambda: 서버 관리 없이 코드만 실행하면 되는 서버리스 컴퓨팅 서비스
Q19 회사에 AWS 에 배포된 3 계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC 의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC 의 프라이빗 서브넷에 배포됩니다. 이 회사는 AWS Marketplace 의 타사 가상 방화벽 어플라이언스를 검사 VPC 에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다. 솔루션 설계자는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? 애플리케이션 VPC 의 퍼블릭 서브넷에 Network Load Balancer 를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다. 애플리케이션 VPC 의 퍼블릭 서브넷에 Application Load Balancer 를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다. 전송 게이트웨이를 통해 들어오는 패킷을 라우팅하도록 라우팅 테이블을 구성하는 검사 VPC 에 전송 게이트웨이를 배포합니다. 검사 VPC 에 게이트웨이 로드 밸런서를 배포합니다. 게이트웨이 로드 밸런서 엔드포인트를 생성하여 수신 패킷을 수신하고 패킷을 어플라이언스로 전달합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 타사에서 만든 전문 보안 소프트웨어를 우리 네트워크와 유기적으로 연결하여 실시간 트래픽을 검사하고 싶을 때 쓰는 것이 게이트웨이 로드 밸런서입니다. 이 기능을 쓰면 복잡한 네트워크 배선 없이도 모든 패킷을 보안 관문으로 통과시켰다가 다시 안전하게 리전 내 서버로 전달할 수 있어 운영 편의성이 압도적으로 높습니다. 💡 이 문제의 핵심 용어 Gateway Load Balancer (GWLB): 타사 가상 어플라이언스에서 발생하는 트래픽을 효율적으로 관리하고 규모를 조정하는 로드 밸런서 VPC: AWS 클라우드 내에 나만의 전용 가상 네트워크 공간
Q20 회사에서 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않아야 합니다. 이 데이터에 액세스하는 소프트웨어는 일관되게 높은 I/O 성능을 요구합니다. 솔루션 설계자는 프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스 스토어 볼륨에 스냅샷을 복원합니다. EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 새 EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 켭니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 수 테라바이트급의 대용량 프로덕션 데이터를 마치 마법처럼 즉시 테스트 장비로 옮기면서도 최고의 속도를 보장하고 싶을 때 필요한 것이 'Fast Snapshot Restore' 기능입니다. 이 기술을 사용하면 일반적인 데이터 복원 시 걸리는 긴 예열 시간을 완전히 제거하고, 처음부터 초고속 데이터 처리를 즉각 시작할 수 있어 업무 효율이 크게 올라갑니다. 💡 이 문제의 핵심 용어 Fast Snapshot Restore (FSR): 스냅샷을 볼륨으로 복원할 때 사전 로딩 과정 없이 처음부터 최고 성능을 낼 수 있게 해주는 기능 EBS Snapshot: EBS 볼륨의 데이터를 특정 시점의 복사본으로 저장해두는 백업 아이템
Q21 전자 상거래 회사는 AWS 에서 하루 1 회 웹 사이트를 시작하려고 합니다. 매일 24 시간 동안 정확히 하나의 제품을 판매합니다. 회사는 피크 시간 동안 밀리초 지연 시간으로 시간당 수백만 개의 요청을 처리할 수 있기를 원합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? Amazon S3 를 사용하여 다른 S3 버킷에 전체 웹 사이트를 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포의 오리진으로 설정합니다. Amazon S3 에 주문 데이터를 저장합니다. 여러 가용 영역의 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. ALB(Application Load Balancer)를 추가하여 웹 사이트 트래픽을 분산합니다. 백엔드 API 에 대해 다른 ALB 를 추가하십시오. MySQL 용 Amazon RDS 에 데이터를 저장합니다. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes 클러스터 자동 확장 처리를 사용하여 트래픽 버스트를 처리할 포드 수를 늘리거나 줄입니다. MySQL 용 Amazon RDS 에 데이터를 저장합니다. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 오리진으로 설정합니다. 백엔드 API 에 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다. Amazon DynamoDB 에 데이터를 저장합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 하루에 단 한 번, 수백만 명이 전력으로 접속하는 타임 세일 상황에서도 절대 중단 없는 쾌적함을 선사하려면 서버리스 풀 세트 방식이 가장 세련됩니다. 사용자가 직접 서버를 관리하고 늘리는 기존 방식 대신, 트래픽에 따라 무제한에 가깝게 알아서 확장되는 DynamoDB와 Lambda를 쓰면 어떤 폭주 상황에서도 밀리초 단위의 경쾌한 응답 속도를 경험할 수 있습니다. 💡 이 문제의 핵심 용어 DynamoDB: 초당 수백만 건의 요청도 밀리초 단위로 처리할 수 있는 완전 관리형 NoSQL 데이터베이스 Serverless: 사용자가 서버를 직접 관리하지 않고 실행된 코드만큼만 비용을 지불하는 컴퓨팅 모델
Q22 솔루션 설계자는 Amazon S3 를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다. 이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까? S3 Standard (S3 표준) S3 Intelligent-Tiering (S3 지능형 계층화) S3 Standard-Infrequent Access(S3 Standard-IA) S3 One Zone-Infrequent Access(S3 One Zone-IA) 정답 확인 및 해설 📖 해설 정답은 B입니다. 데이터가 언제 얼마나 필요한지 도무지 예측할 수 없는 상황에서 최고의 가성비를 찾는다면 지능형 계층화가 정답입니다. 이 기능은 AWS가 자체 AI를 통해 데이터 접근 빈도를 모니터링하고, 잘 안 쓰는 파일은 알아서 싼 요금제로, 자주 쓰는 파일은 빠른 요금제로 옮겨주어 주머니 부담을 확 줄여줍니다. 💡 이 문제의 핵심 용어 Intelligent-Tiering: 데이터의 접근 빈도를 감시하여 자동으로 가장 저렴한 스토리지 계층으로 옮겨주는 기능 S3 Standard: 가장 높은 가용성과 빠른 성능을 제공하는 S3의 범용 스토리지 클래스
Q23 회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 1 개월 동안 파일에 자주 액세스합니다. 단, 1 개월 이후에는 파일에 접근하지 않습니다. 회사는 파일을 무기한 보관해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까? 객체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering 을 구성합니다. S3 수명 주기 구성을 생성하여 1 개월 후에 S3 Standard 에서 S3 Glacier Deep Archive 로 객체를 전환합니다. S3 수명 주기 구성을 생성하여 1 개월 후에 객체를 S3 Standard 에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. S3 수명 주기 구성을 생성하여 1 개월 후에 객체를 S3 Standard 에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 딱 한 달만 쓰고 나머지는 영구 보관용인 백업 파일은 고민할 것 없이 '빙산(Glacier)'급 창고에 넣어두는 것이 비용을 아끼는 지혜입니다. 특히 가장 깊은 보관소인 Deep Archive를 선택하면 사용한 지 한 달이 지나는 순간 자동으로 요금이 가장 저렴한 상태로 전환되므로, 비용은 아끼면서 데이터는 안전하게 지킬 수 있습니다. 💡 이 문제의 핵심 용어 Glacier Deep Archive: 연간 1~2회 정도만 접근하는 초저가 장기 아카이브 스토리지 (S3 최저가) Lifecycle Policy: S3에 저장된 객체가 일정 시간이 지나면 자동으로 하위 계층으로 옮겨지거나 삭제되도록 관리하는 기능
Q24 회사는 가장 최근 청구서에서 Amazon EC2 비용 증가를 관찰했습니다. 청구 팀은 몇 개의 EC2 인스턴스에 대한 인스턴스 유형의 원치 않는 수직적 확분을 발견했습니다. 솔루션 설계자는 지난 2 개월간의 EC2 비용을 비교하는 그래프를 생성하고 심층 분석을 수행하여 수직적 확장의 근본 원인을 식별해야 합니다. 솔루션 설계자는 운영 오버헤드가 가장 적은 정보를 어떻게 생성해야 합니까? AWS 예산을 사용하여 예산 보고서를 생성하고 인스턴스 유형에 따라 EC2 비용을 비교합니다. Cost Explorer 의 세분화된 필터링 기능을 사용하여 인스턴스 유형을 기반으로 EC2 비용에 대한 심층 분석을 수행합니다. AWS Billing and Cost Management 대시보드의 그래프를 사용하여 지난 2 개월 동안의 인스턴스 유형을 기준으로 EC2 비용을 비교합니다. AWS 비용 및 사용 보고서를 사용하여 보고서를 생성하고 Amazon S3 버킷으로 보냅니다. Amazon S3 와 함께 Amazon QuickSight 를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. '어디서 돈이 샐까?'라는 질문에 가장 빠르게 그래프와 분석표로 답해주는 도구는 Cost Explorer입니다. 이 기능을 쓰면 어떤 인스턴스 유형이 범인인지, 날짜별로 비용이 어떻게 뛰었는지 필터 클릭 몇 번으로 밝혀낼 수 있어 복잡한 데이터 분석 없이도 즉시 원인을 교정할 수 있게 해줍니다. 💡 이 문제의 핵심 용어 Cost Explorer: 컴퓨팅 비용 등 AWS 지출 내역을 시각화하고 세부적으로 분석하여 비용 절감 포인트를 찾는 도구 Vertical Scaling: 서버의 사양(CPU, Mem 등)을 더 높은 등급으로 올려 성능을 높이는 방식
Q25 회사에서 응용 프로그램을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway 를 통해 정보를 수신하고 Amazon Aurora PostgreSQL 데이터베이스에 정보를 저장합니다. 개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대용량 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 개선하고 구성 노력을 최소화하기 위해 새로운 설계를 권장해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? Lambda 함수 코드를 Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 리팩터링합니다. 네이티브 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다. 플랫폼을 Aurora 에서 Amazon DynamoDProvision a DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK 를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다. 두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다. 두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 대용량 데이터가 한꺼번에 들이닥칠 때 람다 함수가 한계에 부딪힌다면, 중간에 완충 장치인 SQS 대기열을 두는 시스템 분리 설계가 정답입니다. 이렇게 하면 들이닥친 데이터를 일단 큐에 안전하게 모셔두고, 저장이 담당 서버리스 함수가 자신의 보폭에 맞춰 차근차근 데이터를 처리할 수 있어 시스템 전체의 안정성이 압도적으로 높아집니다. 💡 이 문제의 핵심 용어 SQS (Simple Queue Service): 메시지를 임시로 보관하여 서버 간의 처리 속도 차이를 완충해주는 분산 대기열 서비스 Lambda: 서버 관리 없이 코드만 실행하면 되는 서버리스 컴퓨팅 서비스