Q26 회사는 AWS 클라우드 배포를 검토하여 Amazon S3 버킷에 무단 구성 변경이 없는지 확인해야 합니다. 솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까? 적절한 규칙으로 AWS Config 를 켭니다. 적절한 검사를 통해 AWS Trusted Advisor 를 켭니다. 적절한 평가 템플릿으로 Amazon Inspector 를 켭니다. Amazon S3 서버 액세스 로깅을 켭니다. Amazon EventBridge(Amazon Cloud Watch Events)를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. S3 버킷의 설정이 규정에 맞게 유지되고 있는지 실시간으로 감시하고 무단 변경을 기록하려면 AWS Config를 사용하는 것이 가장 확실합니다. Config는 리소스의 구성 변화를 계속 추적하며, 보안 정책에 어긋나는 변경이 발생했을 때 즉시 알림을 주거나 자동으로 대응할 수 있는 기능을 제공합니다. 다른 서비스인 Inspector는 주로 소프트웨어 취약점 진단에 쓰이며 Trusted Advisor는 비용이나 성능 최적화 조언에 특화되어 있습니다. 💡 이 문제의 핵심 용어 AWS Config: AWS 리소스의 설정 변경 내용을 기록하고 정책 준수 여부를 확인하는 서비스 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q27 회사에서 새 애플리케이션을 시작하고 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 주기적으로 액세스해야 합니다. 제품 관리자에게 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료합니다. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공하십시오. 특히 제품 관리자를 위한 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 올바른 대시보드의 브라우저 URL 을 제품 관리자와 공유하십시오. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청합니다. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유합니다. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명으로 대시보드 URL 을 열도록 브라우저가 구성되어 있는지 확인합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. AWS 계정이 아예 없는 외부 사용자에게 특정 CloudWatch 대시보드만 안전하게 보여주고 싶을 때는 대시보드 공유 기능을 활용하는 것이 가장 좋습니다. 이 기능을 쓰면 개별 이메일 주소로 인증된 전용 링크를 생성할 수 있어, 번거롭게 IAM 계정을 새로 만들거나 보안 위험이 큰 배스천 서버를 구축하지 않고도 최소 권한 원칙을 완벽하게 지킬 수 있습니다. 💡 이 문제의 핵심 용어 CloudWatch Dashboard: 여러 지표 정보를 한눈에 볼 수 있도록 시각화한 모니터링 판넬 Least Privilege: 업무 처리 시 필요한 최소한의 권한만 부여하는 보안 원칙
Q28 회사에서 애플리케이션을 AWS 로 마이그레이션하고 있습니다. 응용 프로그램은 다른 계정에 배포됩니다. 회사는 AWS Organizations 를 사용하여 중앙에서 계정을 관리합니다. 회사의 보안 팀은 회사의 모든 계정에 SSO(Single Sign-On) 솔루션이 필요합니다. 회사는 사내 자체 관리 Microsoft Active Directory 에서 사용자 및 그룹을 계속 관리해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 Microsoft Active Directory 용 AWS Directory Service 를 사용하여 회사의 자체 관리형 Microsoft Active Directory 를 AWS SSO 와 연결합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory 용 AWS Directory Service 를 사용하여 회사의 자체 관리형 Microsoft Active Directory 를 AWS SSO 와 연결하는 양방향 포리스트 트러스트를 생성합니다. AWS 디렉터리 서비스를 사용합니다. 회사의 자체 관리 Microsoft Active Directory 와 양방향 신뢰 관계를 만드십시오. 온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 회사의 자체 관리 AD 정보를 그대로 쓰면서 여러 AWS 계정에 한 번에 접속하고 싶다면, AWS AWS Managed Microsoft AD를 설치하고 온프레미스 AD와 양방향 포리스트 트러스트를 맺는 것이 정석입니다. 이렇게 하면 사용자는 기존 사내 계정 그대로 AWS에 로그인할 수 있게 되어 관리가 매우 편리해지며 보안 정책도 일관성 있게 유지할 수 있습니다. 💡 이 문제의 핵심 용어 Identity Center (SSO): 여러 계정이나 애플리케이션에 한 번의 로그인으로 접근할 수 있게 해주는 ID 관리 서비스 Managed Microsoft AD: AWS에서 관리해주는 가상화된 Microsoft Active Directory 서비스
Q29 회사는 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 회사는 여러 AWS 리전에 배포하고 있습니다. 회사는 지연 시간이 가장 짧은 리전으로 사용자를 라우팅해야 합니다. 이 회사는 또한 지역 간 자동 장애 조치가 필요합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB 를 AWS Global Accelerator 엔드포인트로 사용합니다. ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB 를 AWS Global Accelerator 엔드포인트로 사용합니다. NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB 의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다. ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB 의 별칭을 가리키는 Amazon Route 53 가중치 레코드를 생성합니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 통화 서비스(VoIP)처럼 UDP 트래픽의 속도가 중요한 시스템에서는 AWS 전용 망을 사용하는Global Accelerator와 UDP 처리가 가능한 네트워크 로드 밸런서(NLB) 조합이 가장 탁월합니다. 전 세계 어디에서 접속하든 가장 가까운 리전으로 사용자를 안내해주며, 한 곳에 문제가 생겨도 즉시 다른 리전으로 돌려주는 자동 장애 조치 기능까지 갖추고 있어 서비스 중단을 최소화할 수 있습니다. 💡 이 문제의 핵심 용어 Global Accelerator: AWS 전용 망을 사용하여 사용자 트래픽의 성능을 최적화하고 지연 시간을 줄이는 전송 가속 서비스 NLB (Network Load Balancer): UDP 및 TCP 트래픽을 처리하며 초저지연 성능을 제공하는 네트워크 계층 로드 밸런서
Q30 개발 팀은 성능 개선 도우미가 활성화된 MySQL DB 인스턴스용 범용 Amazon RDS 에서 매월 리소스 집약적 테스트를 실행합니다. 테스트는 한 달에 한 번 48 시간 동안 지속되며 데이터베이스를 사용하는 유일한 프로세스입니다. 팀은 DB 인스턴스의 컴퓨팅 및 메모리 속성을 줄이지 않고 테스트 실행 비용을 줄이려고 합니다. 어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까? 테스트가 완료되면 DB 인스턴스를 중지합니다. 필요한 경우 DB 인스턴스를 다시 시작합니다. DB 인스턴스와 함께 Auto Scaling 정책을 사용하여 테스트가 완료되면 자동으로 확장합니다. 테스트가 완료되면 스냅샷을 만듭니다. DB 인스턴스를 종료하고 필요한 경우 스냅샷을 복원합니다. 테스트가 완료되면 DB 인스턴스를 저용량 인스턴스로 수정합니다. 필요한 경우 DB 인스턴스를 다시 수정합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 한 달에 딱 이틀만 쓰는 데이터베이스라면 테스트가 끝나는 즉시 전체 백업본인 스냅샷만 남기고 인스턴스를 완전히 삭제하는 것이 가장 지갑을 아끼는 방법입니다. 인스턴스를 켜두거나 단순히 중지만 시키면 저장 장치 비용이 계속 발생하지만, 스냅샷 보관 비용은 훨씬 저렴하기 때문입니다. 다음 테스트 때는 이 스냅샷으로 다시 DB를 똑같이 살려내서 쓰면 됩니다. 💡 이 문제의 핵심 용어 DB Snapshot: 특정 시점의 데이터베이스 전체 내용을 아카이브 형태로 저장해두는 복합 백업본 RDS: 관계형 데이터베이스를 자동으로 관리해주는 AWS의 대표 서비스
Q31 AWS 에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하기를 원합니다. Amazon RDS DB 인스턴스. Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하기를 원합니다. 솔루션 설계자는 이를 달성하기 위해 무엇을 해야 합니까? AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다. 비용 탐색기를 사용하여 제대로 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch 를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 전사의 모든 자산에 꼬리표(태그)가 잘 붙어있는지 자동으로 감사하고 관리하고 싶다면 AWS Config의 관리형 규칙을 활용하는 것이 가장 스마트합니다. 직접 감시용 코드를 짤 필요 없이 미리 준비된 규칙을 활성화하기만 하면, 태그가 빠진 자원을 알아서 찾아내고 알림까지 보내주어 수조 단위의 자원도 적은 인력으로 완벽하게 통제할 수 있습니다. 💡 이 문제의 핵심 용어 AWS Config Rules: 특정 리소스가 원하는 설정(예: 특정 태그 존재 여부)을 유지하는지 지속적으로 체크하는 규칙 Tagging: AWS 리소스를 용도, 소유자, 환경 등으로 분류하기 위해 붙이는 꼬리표
Q32 개발 팀은 다른 팀이 액세스할 웹사이트를 호스팅해야 합니다. 웹사이트 콘텐츠는 HTML, CSS, 클라이언트 측 JavaScript 및 이미지로 구성됩니다. 웹 사이트 호스팅에 가장 비용 효율적인 방법은 무엇입니까? 웹 사이트를 컨테이너화하고 AWS Fargate 에서 호스팅합니다. Amazon S3 버킷을 생성하고 거기에서 웹 사이트를 호스팅합니다. Amazon EC2 인스턴스에 웹 서버를 배포하여 웹 사이트를 호스팅합니다. Express.js 프레임워크를 사용하는 AWS Lambda 대상으로 Application Load Balancer 를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 미리 만들어진 파일들로만 구성된 정적 웹 사이트는 굳이 비싼 서버를 빌릴 필요 없이 Amazon S3 버킷에 담아두기만 해도 훌륭하게 작동합니다. S3는 서버를 관리할 필요가 전혀 없는 서버리스 방식이라 운영 부담이 없고, 가격 또한 실제 데이터 저장량과 트래픽만큼만 내면 되어 다른 대안들보다 훨씬 경제적입니다. 💡 이 문제의 핵심 용어 Static Website Hosting: 서버 측 로직 없이 미리 만들어진 파일만 제공하는 방식. S3에서 기본 제공함 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q33 회사는 AWS 에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 피크 시간에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 금융 거래 세부 정보를 다른 여러 내부 애플리케이션과 공유할 수 있는 확장 가능한 거의 실시간 솔루션이 필요합니다. 또한 지연 시간이 짧은 검색을 위해 문서 데이터베이스에 저장하기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까? 트랜잭션 데이터를 Amazon DynamoDB 에 저장합니다. 쓰기 시 모든 트랜잭션에서 민감한 데이터를 제거하도록 DynamoDB 에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다. 트랜잭션 데이터를 Amazon Kinesis Data Firehose 로 스트리밍하여 Amazon DynamoDB 및 Amazon S3 에 데이터를 저장합니다. Kinesis Data Firehose 와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3 에 저장된 데이터를 사용할 수 있습니다. 트랜잭션 데이터를 Amazon Kinesis Data Streams 로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 민감한 데이터를 제거한 다음 Amazon DynamoDB 에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림의 트랜잭션 데이터를 사용할 수 있습니다. 일괄 처리된 트랜잭션 데이터를 Amazon S3 에 파일로 저장합니다. Amazon S3 에서 파일을 업데이트하기 전에 AWS Lambda 를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그러면 Lambda 함수가 Amazon DynamoDB 에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3 에 저장된 트랜잭션 파일을 사용할 수 있습니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 쏟아지는 수백만 건의 데이터를 실시간으로 모으고, 중간에 필요한 정보만 쏙쏙 골라내 가공하며, 이를 다른 여러 부서와 공유하고 싶다면 Kinesis Data Streams가 최고의 조율자입니다. 스트림을 통해 들어오는 원시 데이터를 람다 함수가 실시간으로 가공하여 안전한 형태로 창고(DynamoDB)에 넣는 동시에, 다른 서비스들도 같은 데이터를 자신의 입맛에 맞게 읽어갈 수 있어 확장성이 무궁무진합니다. 💡 이 문제의 핵심 용어 Kinesis Data Streams: 초당 수백만 건의 데이터를 실시간으로 수집하고 여러 서비스가 동시에 읽어갈 수 있게 해주는 스트리밍 서비스 Lambda: 서버 관리 없이 코드만 실행하면 되는 서버리스 컴퓨팅 서비스
Q34 회사는 AWS 에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스의 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 기록을 기록해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? AWS CloudTrail 을 사용하여 구성 변경을 추적하고 AWS Config 를 사용하여 API 호출을 기록하십시오. AWS Config 를 사용하여 구성 변경을 추적하고 AWS CloudTrail 을 사용하여 API 호출을 기록합니다. AWS Config 를 사용하여 구성 변경을 추적하고 Amazon CloudWatch 를 사용하여 API 호출을 기록합니다. AWS CloudTrail 을 사용하여 구성 변경을 추적하고 Amazon CloudWatch 를 사용하여 API 호출을 기록합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 기업의 투명한 운영을 위해 '누가 내 시스템에 어떤 명령을 내렸나'라는 행동 분석은 CloudTrail이 맡고, '서버 설정값이 과거와 지금 어떻게 달라졌나'라는 물리적 현황 파악은 AWS Config가 담당합니다. 이 두 서비스를 함께 운용하면 보안 사고가 터졌을 때 원인 규명부터 복구까지 물 흐르듯 처리할 수 있는 강력한 감사 시스템을 갖추게 됩니다. 💡 이 문제의 핵심 용어 CloudTrail: AWS 계정 내 모든 API 활동 내역을 기록하는 감사용 서비스 AWS Config: 리소스의 설정 내역을 추적하고 과거 시점의 구성을 조회할 수 있게 해주는 도구
Q35 한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내 Amazon EC2 인스턴스로 구성됩니다. DNS 에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 감지하고 보호하기 위한 솔루션을 권장해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 계정에서 Amazon GuardDuty 를 활성화합니다. EC2 인스턴스에서 Amazon Inspector 를 활성화합니다. AWS Shield 를 활성화하고 여기에 Amazon Route 53 을 할당합니다. AWS Shield Advanced 를 활성화하고 ELB 를 할당합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 전 세계의 악의적인 트래픽 폭탄으로부터 우리 웹 서비스를 확실하게 지켜내고 싶다면 AWS Shield Advanced가 필수적인 방패입니다. 특히 대규모 공격 시 발생하는 비용 절감이나 보안 전문가의 실시간 대응까지 지원받을 수 있어, 소중한 비즈니스가 멈추지 않도록 하는 가장 든든한 보험 같은 역할을 해줍니다. 💡 이 문제의 핵심 용어 DDoS (Distributed Denial of Service): 수많은 좀비 PC를 이용해 서버에 과도한 트래픽을 주입하여 서비스를 마비시키는 공격 AWS Shield Advanced: DDoS 공격에 대한 실시간 모니터링 및 방어 전담 인력을 지원받는 유료 보안 등급
Q36 회사는 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 지역 각각에 저장되어야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? 각 리전에서 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다. 고객 관리형 다중 지역 KMS 키를 생성합니다. 각 리전에서 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다. 각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다. 각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 여러 리전에 데이터가 흩어져 있어도 같은 열쇠(키 ID)로 열고 닫을 수 있게 해주는 다중 리전 KMS 키를 사용하면 복잡한 암호화 구조를 획기적으로 단순화할 수 있습니다. 이렇게 하면 한국 리전에서 암호화한 데이터를 미국 리전에서도 따로 열쇠를 맞추는 고생 없이 즉시 확인할 수 있어 계정 통합과 관리 효율성 면에서 최고의 만족감을 줍니다. 💡 이 문제의 핵심 용어 KMS Multi-region Keys: 서로 다른 리전에서 동일한 키 ID와 데이터를 사용해 암복호화를 가능하게 하는 전용 키 S3 Replication: S3 버킷에 담긴 파일들을 다른 리전의 버킷으로 실시간 자동 복사해주는 기능
Q37 한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 출시했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하는 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 함께 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? EC2 직렬 콘솔을 사용하여 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스합니다. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS Systems Manager Session Manager 를 사용하여 원격 SSH 세션을 설정합니다. 관리 SSH 키 쌍을 만듭니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스의 관리를 위한 터널을 제공합니다. AWS Site-to-Site VPN 연결을 설정합니다. 관리자에게 로컬 온프레미스 머신을 사용하여 VPN 터널에서 SSH 키를 사용하여 인스턴스에 직접 연결하도록 지시합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 번거로운 열쇠(PEM) 관리나 위험한 22번 포트 개방 없이 깔끔하게 서버에 접속하고 싶다면 세션 매니저가 유일한 정답입니다. 웹 브라우저에서 버튼 하나로 바로 접속할 수 있고 누가 들어와서 무얼 했는지 기록까지 남으니, 보안은 챙기면서 관리 효율은 극도로 높이는 현대적인 관리자의 필수 덕목과도 같은 기능입니다. 💡 이 문제의 핵심 용어 Session Manager: 포트 오픈이나 키 관리 없이 인격적으로 인스턴스에 원격 접속하게 해주는 서비스 (Systems Manager 기능) EC2: 클라우드에서 빌려 쓰는 가상 서버 인스턴스
Q38 회사는 Amazon S3 에서 정적 웹 사이트를 호스팅하고 DNS 에 Amazon Route 53 을 사용하고 있습니다. 웹 사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹 사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다. 어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까? 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다. AWS Global Accelerator 에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다. S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다. 버킷에서 S3 Transfer Acceleration 을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 정적인 파일을 전 세계 어디서든 빛의 속도로 전달하고 싶다면 CloudFront라는 CDN 서비스가 가장 효율적입니다. 전 세계 구석구석 퍼진 엣지 로케이션에 파일을 미리 복사해두기 때문에 사용자가 멀리 떨어진 리전에 접속할 필요가 없어지며, 비용도 저렴해지기 때문에 글로벌 서비스를 꿈꾸는 사람이라면 반드시 가져가야 할 아키텍처입니다. 💡 이 문제의 핵심 용어 CloudFront: 전 세계 엣지 로케이션을 통해 사용자 요청에 가장 빠른 응답을 제공하는 CDN 제품 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q39 회사는 웹 사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB 의 범용 SSD 스토리지가 있습니다. 회사 웹 사이트를 통해 이 데이터에 대한 수백만 건의 업데이트가 매일 있습니다. 이 회사는 일부 삽입 작업이 10 초 이상 걸리는 것을 확인했습니다. 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다. 이 성능 문제를 해결하는 솔루션은 무엇입니까? 스토리지 유형을 프로비저닝된 IOPS SSD 로 변경합니다. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다. DB 인스턴스를 버스트 가능한 성능 인스턴스 클래스로 변경합니다. MySQL 기본 비동기 복제로 다중 AZ RDS 읽기 전용 복제본을 활성화합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 데이터베이스에 정보를 들이붓는 속도가 느려진다면 대개 저장 장치(디스크)의 처리 능력이 한계에 도달한 것입니다. 기본형인 범용 SSD에서 우리가 원하는 속도만큼 성능을 미리 예약해두는 프로비저닝된 IOPS 타입으로 업그레이드하면, 어떤 폭주 상황에서도 가슴이 시원해지는 일정한 처리 속도를 맛볼 수 있습니다. 💡 이 문제의 핵심 용어 Provisioned IOPS: 고도의 입출력 성능이 필요한 워크로드를 위해 일정한 처리량(IOPS)을 미리 예약해두는 스토리지 서비스 RDS: 관계형 데이터베이스를 편리하게 운영하기 위해 AWS에서 제공하는 완전 관리 서비스
Q40 회사에는 매일 1TB 의 상태 알림을 집합적으로 생성하는 수천 개의 에지 장치가 있습니다. 각 경고의 크기는 약 2KB 입니다. 솔루션 설계자는 향후 분석을 위해 경고를 수집하고 저장하는 솔루션을 구현해야 합니다. 회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라 관리를 원하지 않습니다. 또한 회사는 즉각적인 분석을 위해 14 일 동안의 데이터를 유지하고 14 일이 지난 데이터를 보관하기를 원합니다. 이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까? Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon S3 버킷에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. 14 일 후에 데이터를 Amazon S3 Glacier 로 전환하도록 S3 수명 주기 구성을 설정합니다. 두 가용 영역에서 Amazon EC2 인스턴스를 시작하고 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. Amazon S3 버킷에 경고를 저장할 EC2 인스턴스에 대한 스크립트를 생성합니다. 14 일 후에 데이터를 Amazon S3 Glacier 로 전환하도록 S3 수명 주기 구성을 설정합니다. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 만들고 클러스터에서 14 일이 지난 데이터를 삭제합니다. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 생성하여 알림을 수집하고 메시지 보존 기간을 14 일로 설정합니다. SQS 대기열을 폴링하고, 메시지의 수명을 확인하고, 필요에 따라 메시지 데이터를 분석하도록 소비자를 구성합니다. 메시지가 14 일이 지난 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 쏟아지는 수 천 개의 신호를 서버 한 대라도 직접 관리하지 않고 모두 안전하게 수집하고 싶을 때 Kinesis Data Firehose를 꺼내면 좋습니다. 알아서 데이터를 모아서 창고(S3)에 차곡차곡 쌓아주며, 이후에는 시간표(수명 주기 정책)만 짜두면 오래된 정보는 가장 싼 창고로 자동 이관되니 손 까딱 않고도 완벽한 데이터 수집 환경을 구축할 수 있습니다. 💡 이 문제의 핵심 용어 Kinesis Data Firehose: 서버리스 방식으로 실시간 데이터를 수집하여 S3나 Redshift 같은 대상으로 전송해주는 서비스 Lifecycle Policy: 시간이 지난 데이터를 자동으로 삭제하거나 더 저렴한 스토리지로 옮겨주는 자동화 설정
Q41 회사의 애플리케이션은 데이터 수집을 위해 여러 SaaS(Software-as-a-Service) 소스와 통합됩니다. 이 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 데이터를 Amazon S3 버킷에 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스도 업로드가 완료되면 사용자에게 알림을 보냅니다. 회사는 느린 응용 프로그램 성능을 발견했으며 가능한 한 성능을 개선하려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? EC2 인스턴스가 확장할 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다. Amazon AppFlow 흐름을 생성하여 각 SaaS 소스와 S3 버킷 간에 데이터를 전송합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 업로드가 완료되면 이벤트를 전송하는 두 번째 EventBridge(Cloud Watch Events) 규칙을 생성합니다. Amazon Simple Notification Service(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다. EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 Amazon CloudWatch Container Insights 를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 외부 유료 서비스들의 데이터를 내 시스템으로 안전하게 끌어오는 힘든 작업을 이제 코딩 없이 해결할 수 있습니다. Amazon AppFlow를 사용하면 복잡한 연동 로직 없이도 클릭 몇 번으로 모든 자료를 연동할 수 있습니다. 이렇게 서버 관리 부담을 지우면 전체적인 성능도 보장되고, 자료 한 통이 들어올 때마다 자동으로 알림까지 돌릴 수 있는 쾌적한 데이터 파이프라인이 완성됩니다. 💡 이 문제의 핵심 용어 Amazon AppFlow: 클릭 몇 번으로 SaaS 앱과 AWS 서비스 간의 데이터를 전송하고 통합하게 해주는 서버리스 도구 S3 Notification: S3에 파일 업로드 등 이벤트 발생 시 알림을 보내는 기능
Q42 회사는 단일 VPC 의 Amazon EC2 인스턴스에서 고가용성 이미지 처리 애플리케이션을 실행합니다. EC2 인스턴스는 여러 가용 영역의 여러 서브넷 내에서 실행됩니다. EC2 인스턴스는 서로 통신하지 않습니다. 그러나 EC2 인스턴스는 Amazon S3 에서 이미지를 다운로드하고 단일 NAT 게이트웨이를 통해 Amazon S3 에 이미지를 업로드합니다. 회사는 데이터 전송 요금에 대해 우려하고 있습니다. 회사가 지역 데이터 전송 요금을 피할 수 있는 가장 비용 효율적인 방법은 무엇입니까? 각 가용 영역에서 NAT 게이트웨이를 시작합니다. NAT 게이트웨이를 NAT 인스턴스로 교체합니다. Amazon S3 용 게이트웨이 VPC 엔드포인트를 배포합니다. EC2 인스턴스를 실행할 EC2 전용 호스트를 프로비저닝합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. NAT 게이트웨이라는 비싼 유료 톨게이트를 거치지 않고도 내 서버가 S3 창고로 곧장 갈 수 있는 전용 지름길을 뚫는 것이 비용 절감의 핵심입니다. 게이트웨이 VPC 엔드포인트를 설치하면 통행료 없이 프라이빗한 도로를 이용할 수 있게 되어, 데이터 전송량이 늘어나도 요금 폭탄 걱정 없이 쾌적하게 이미지를 주고받을 수 있습니다. 💡 이 문제의 핵심 용어 NAT Gateway: 프라이빗 서브넷의 인스턴스가 인터넷에 접근할 수 있게 해주는 중계 브릿지(유료) Gateway VPC Endpoint: VPC에서 S3로 가는 전용 프라이빗 도로를 만들어주는 서비스(무료)
Q43 회사에 Amazon S3 에 백업되는 시간에 민감한 대량의 데이터를 생성하는 온프레미스 애플리케이션이 있습니다. 애플리케이션이 성장했고 인터넷 대역폭 제한에 대한 사용자 불만이 있습니다. 솔루션 설계자는 Amazon S3 에 대한 적시 백업을 허용하고 내부 사용자의 인터넷 연결에 미치는 영향을 최소화하는 장기 솔루션을 설계해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? AWS VPN 연결을 설정하고 VPC 게이트웨이 엔드포인트를 통해 모든 트래픽을 프록시합니다. 새 AWS Direct Connect 연결을 설정하고 이 새 연결을 통해 백업 트래픽을 직접 연결합니다. 매일 AWS Snowball 디바이스를 주문합니다. Snowball 디바이스에 데이터를 로드하고 디바이스를 매일 AWS 로 반환합니다. AWS Management 콘솔을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한 제거를 요청합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 전 직원이 쓰는 인터넷 망을 통해 백업까지 돌리면 업무가 마비됩니다. 우리 회사와 AWS 센터를 잇는 두툼한 단독 전용 고속도로인 Direct Connect를 깔아야 합니다. 이 전용선을 쓰면 데이터가 아무리 쏟아져도 옆 차선에서 인터넷을 쓰는 직원들에게 전혀 지장을 주지 않으면서도 수 테라바이트의 자료를 안정적으로 클라우드에 밀어넣을 수 있습니다. 💡 이 문제의 핵심 용어 AWS Direct Connect: 온프레미스와 AWS 사이를 잇는 통신사 기반의 일관된 고속 전용선 연결 서비스 S3: AWS에서 제공하는 무제한 파일 저장소(객체 스토리지)
Q44 회사에는 중요한 데이터가 포함된 Amazon S3 버킷이 있습니다. 회사는 우발적인 삭제로부터 데이터를 보호해야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 취해야 합니까? (2 개를 선택하세요.) S3 버킷에서 버전 관리를 활성화합니다. S3 버킷에서 MFA 삭제를 활성화합니다. S3 버킷에 버킷 정책을 생성합니다. S3 버킷에서 기본 암호화를 활성화합니다. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다. 정답 확인 및 해설 📖 해설 정답은 A와 B입니다. 실수로 소중한 자료를 지워도 과거 상태로 되돌릴 수 있는 타임머신인 버전 관리를 켜고, 영구 삭제 시에는 반드시 실물 보안 카드를 통한 2차 인증을 요구하는 MFA 삭제 기능까지 더하면 보안의 끝판왕을 만들 수 있습니다. 이렇게 두 겹의 방패를 세우면 내부자의 실수나 악의적인 침입으로부터 우리의 데이터를 가장 견고하게 보호할 수 있습니다. 💡 이 문제의 핵심 용어 S3 Versioning: 파일이 수정/삭제될 때마다 이전 상태를 자동으로 보존해주는 기능 MFA (Multi-Factor Authentication): 비밀번호 외에 고유한 보안 코드나 실물 카드를 이용한 2차 인증 방식
Q45 회사에는 다음으로 구성된 데이터 수집 워크플로가 있습니다. • 새로운 데이터 전송에 대한 알림을 위한 Amazon Simple Notification Service(Amazon SNS) 주제 • 데이터를 처리하고 메타데이터를 기록하는 AWS Lambda 함수 회사는 네트워크 연결 문제로 인해 수집 워크플로가 때때로 실패하는 것을 관찰했습니다. 이러한 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 Lambda 함수는 해당 데이터를 수집하지 않습니다. Lambda 함수가 향후 모든 데이터를 수집하도록 하려면 솔루션 설계자가 취해야 하는 작업 조합은 무엇입니까? (2 개를 선택하세요.) 여러 가용 영역에 Lambda 함수를 배포합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 SNS 주제를 구독합니다. Lambda 함수에 할당된 CPU 와 메모리를 늘립니다. Lambda 함수에 대해 프로비저닝된 처리량을 늘립니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽도록 Lambda 함수를 수정합니다. 정답 확인 및 해설 📖 해설 정답은 B와 E입니다. 정보가 들어오자마자 바로 처리하려고 하면 네트워크 한 번 튀었을 때 공들인 데이터가 날아가 버립니다. 중간에 데이터를 고이 담아두는 바구니인 SQS 대기열을 두고 차근차근 읽어 가게 고쳐야 합니다. 그러면 시스템에 문제가 생겨도 데이터는 바구니 안에서 안전하게 기다리게 되고, 나중에라도 빠뜨리는 정보 없이 완벽한 수집 파이프라인을 유지할 수 있습니다. 💡 이 문제의 핵심 용어 SQS: 시스템 간 메시지를 주고받는 대기열 서비스. 비동기식 처리를 통해 시스템 신뢰성을 높임 SNS: 구독자들에게 메시지를 푸시하는 알림 서비스
Q46 회사는 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 서비스는 매장 고객의 이전 구매를 기반으로 합니다. 상점은 SFTP 를 통해 거래 데이터를 회사에 업로드하고 데이터를 처리 및 분석하여 새로운 마케팅 제안을 생성합니다. 일부 파일의 크기는 200GB 를 초과할 수 있습니다. 최근에 회사는 일부 상점에서 포함되어서는 안 되는 개인 식별 정보(PII)가 포함된 파일을 업로드했음을 발견했습니다. 회사는 PII 가 다시 공유될 경우 관리자에게 경고를 주기를 원합니다. 회사는 또한 문제 해결을 자동화하기를 원합니다. 최소한의 개발 노력으로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까? Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Inspector 를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII 가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII 가 포함된 객체를 제거합니다. Amazon S3 버킷을 보안 전송 지점으로 사용합니다. Amazon Macie 를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII 가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII 가 포함된 객체를 제거하라는 알림을 트리거합니다. AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII 가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII 가 포함된 객체를 제거하라는 알림을 트리거합니다. AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII 가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 트리거하고 S3 수명 주기 정책을 트리거하여 PII 가 포함된 고기를 제거합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 수십 기가바이트의 문서 속에 숨겨진 전화번호나 집 주소 같은 개인정보를 우리 눈 대신 인공지능이 찾아주는 것이 Macie 서비스의 저력입니다. 이 기능을 쓰면 매번 눈 빠지게 체크할 필요 없이 Macie가 매의 눈으로 감시하다가 사고 발생 시 즉각 관리자에게 소식을 전하니, 세상에서 가장 똑똑한 보안 요원을 채용한 것과 다름없습니다. 💡 이 문제의 핵심 용어 Amazon Macie: 기계 학습을 활용하여 개인 식별 정보(PII) 등 민감한 데이터를 자동으로 탐지하고 관리하는 보안 서비스 PII (Personally Identifiable Information): 이름, 전화번호 등 특정 개인을 식별할 수 있는 민감한 정보
Q47 회사는 1 주일 동안 진행될 예정된 이벤트를 위해 특정 AWS 리전의 3 개의 특정 가용 영역에서 보장된 Amazon EC2 용량이 필요합니다. EC2 용량을 보장하기 위해 회사는 무엇을 해야 합니까? 필요한 리전을 지정하는 예약 인스턴스를 구매합니다. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다. 필요한 리전과 3 개의 가용 영역을 지정하는 예약 인스턴스를 구매합니다. 필요한 지역과 3 개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 돈을 깎는 게 아니라 정말 '서버 자리가 모자라서 내 일을 못 할까 봐' 걱정된다면 용량 예약을 통해 내 자리를 찜해두어야 합니다. 이때 리전만 말하는 게 아니라 정확한 가용 영역까지 콕 집어서 예약해야 센터 한구석에 내 인스턴스가 들어갈 자리를 확실히 비워두어, 당장 서버를 올릴 때 자리가 없다는 거절 편지를 받지 않을 수 있습니다. 💡 이 문제의 핵심 용어 Capacity Reservation: 특정 가용 영역에서 EC2 인스턴스를 즉시 시작할 수 있도록 컴퓨팅 용량을 미리 확보해두는 기능 On-demand: 필요한 때에 즉시 인스턴스를 생성하고 사용한 만큼 지불하는 과금 방식
Q48 회사 웹 사이트는 항목 카탈로그에 Amazon EC2 인스턴스 스토어를 사용합니다. 회사는 카탈로그의 가용성이 높고 카탈로그가 내구성 있는 위치에 저장되기를 원합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? 카탈로그를 Redis 용 Amazon ElastiCache 로 이동합니다. 더 큰 인스턴스 스토어로 더 큰 EC2 인스턴스를 배포합니다. 인스턴스 스토어에서 Amazon S3 Glacier Deep Archive 로 카탈로그를 이동합니다. 카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 인스턴스 스토어는 정말 빠르지만 전원을 끄면 기억도 다 지워버리는 임무형 장치라 위험합니다. 자료를 영구히 보관하면서 아무 서버나 붙여서 쓸 수 있는 EFS로 이사를 가야 합니다. EFS는 여러 리전과 영역을 아우르는 고도의 내구성을 자랑하므로 카탈로그 같은 핵심 자산을 모시기에는 가장 믿음직스러운 안식처가 되어줍니다. 💡 이 문제의 핵심 용어 Instance Store: EC2의 물리적 호스트에 직접 붙어 매우 빠르지만 인스턴스가 사라지면 데이터가 날아가는 임시 저장소 EFS: 내구성이 높고 가용 영역 전체에서 데이터 공유가 가능한 표준 파일 스토리지
Q49 회사는 매월 통화 기록 파일을 저장합니다. 사용자는 통화 후 1 년 이내에 파일에 무작위로 액세스하지만 1 년 이후에는 파일에 자주 액세스하지 않습니다. 이 회사는 사용자에게 1 년 미만의 파일을 가능한 한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하려고 합니다. 오래된 파일을 검색하는 데 있어 지연은 허용됩니다. 어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까? Amazon S3 Glacier Instant Retrieval 에 태그가 있는 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval 에서 파일을 검색합니다. Amazon S3 Intelligent-Tiering 에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1 년 후 파일을 S3 Glacier Flexible Retrieval 로 이동합니다. Amazon Athena 를 사용하여 Amazon S3 에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select 를 사용하여 S3 Glacier 에 있는 파일을 쿼리하고 검색합니다. Amazon S3 Standard 스토리지에 태그가 있는 개별 파일을 저장합니다. Amazon S3 Standard 스토리지의 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1 년 후에 파일을 S3 Glacier Instant Retrieval 로 이동합니다. Amazon S3 에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1 년 후에 파일을 S3 Glacier Deep Archive 로 이동합니다. Amazon RDS 에 검색 메타데이터를 저장합니다. Amazon RDS 에서 파일을 쿼리합니다. S3 Glacier Deep Archive 에서 파일을 검색합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 1년 동안 언제 찾을지 모르는 통화 기록은 AI가 관리해주는 지능형 계층화에 맡기고, 먼지 쌓일 1년 뒤부턴 싼 창고로 옮겨두는 것이 가성비의 정석입니다. Athena라는 돋보기를 쓰면 S3에 담긴 파일을 일일이 열어보지 않고도 쿼리 한 줄로 내용을 훑어볼 수 있어, 사용자는 빠르고 상사는 저렴한 요금에 만족하는 환상적인 관리 체계가 구축됩니다. 💡 이 문제의 핵심 용어 Intelligent-Tiering: 접근 패턴이 불규칙한 데이터를 감시하여 자동으로 저렴한 계층으로 이동시켜주는 S3 스토리지 클래스 Glacier Flexible Retrieval: 필요할 때 몇 분에서 몇 시간 내에 데이터를 꺼내 쓸 수 있는 저비용 아카이브 옵션
Q50 회사에 1,000 개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어에 의해 구동됩니다. 회사는 중요한 보안 취약성을 수정하기 위해 가능한 한 빨리 모든 EC2 인스턴스에서 타사 소프트웨어를 패치해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? AWS Lambda 함수를 생성하여 모든 EC2 인스턴스에 패치를 적용합니다. 모든 EC2 인스턴에 패치를 적용하도록 AWS Systems Manager Patch Manager 를 구성합니다. AWS Systems Manager 유지 관리 기간을 예약하여 모든 EC2 인스턴스에 패치를 적용합니다. AWS Systems Manager Run Command 를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 긴급하게 1,000대의 서버를 다 패치해야 하는 불이 떨어진 상황에서 한 대씩 들어가는 건 불가능합니다. 'Run Command'라는 신호를 보내 1,000대에 동시에 실행 명령을 내려야 합니다. 이렇게 원격에서 중앙 제어로 명령을 쏘면 순식간에 수천 대의 방어벽이 쳐지는 경험을 할 수 있으며, 보안 사고의 골든 타임을 놓치지 않고 가장 빠르게 대응할 수 있는 필살기와 같습니다. 💡 이 문제의 핵심 용어 Run Command: 로그인 없이 수백~수천 대의 서버에 동시에 쉘 명령이나 스크립트를 원격 실행하는 도구 Patch Manager: AWS 리소스의 보안 패치 설치 여부를 확인하고 자동으로 설치까지 해주는 자동화 도구