Q76 회사는 단일 공장에 있는 여러 기계에서 매일 10TB 의 계측 데이터를 수신합니다. 데이터는 공장 내에 위치한 온프레미스 데이터 센터의 SAN(Storage Area Network)에 저장된 JSON 파일로 구성됩니다. 회사는 이 데이터를 Amazon S3 로 전송하여 중요한 실시간에 가까운 분석을 제공하는 여러 추가 시스템에서 액세스할 수 있기를 원합니다. 데이터가 민감한 것으로 간주되기 때문에 안전한 전송이 중요합니다. 가장 안정적인 데이터 전송을 제공하는 솔루션은 무엇입니까? 공용 인터넷을 통한 AWS DataSync AWS Direct Connect 를 통한 AWS DataSync 공용 인터넷을 통한 AWS Database Migration Service(AWS DMS) AWS Direct Connect 를 통한 AWS Database Migration Service(AWS DMS) 정답 확인 및 해설 📖 해설 정답은 B입니다. 10TB에 달하는 대규모 데이터를 민감한 공장 환경에서 S3로 안전하고 안정적으로 옮기려면 인터넷이 아닌 전용선 기반의 Direct Connect와 데이터 전송을 자동화 및 가속화하는 DataSync 조합이 최상입니다. DataSync는 복사 중 데이터 무결성 검사까지 수행하여 신뢰성을 높여줍니다. 전용선을 사용하면 공공 인터넷의 가변적인 속도와 보안 위험에서 벗어나 일관된 성능으로 데이터를 전송할 수 있습니다. 💡 이 문제의 핵심 용어 AWS DataSync: 온프레미스 스토리지와 AWS 서비스 간의 대규모 데이터 이동을 가속화하고 자동화하는 온라인 데이터 전송 서비스 AWS Direct Connect: 온프레미스에서 AWS까지 인터넷을 거치지 않는 전용 네트워크 연결을 생성하는 서비스
Q77 회사는 애플리케이션에 대한 실시간 데이터 수집 아키텍처를 구성해야 합니다. 회사에는 데이터가 스트리밍될 때 데이터를 변환하는 프로세스인 API 와 데이터를 위한 스토리지 솔루션이 필요합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? Amazon EC2 인스턴스를 배포하여 Amazon Kinesis 데이터 스트림으로 데이터를 전송하는 API 를 호스팅합니다. Kinesis 데이터 스트림을 데이터 원본으로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3 로 보냅니다. Amazon EC2 인스턴스를 배포하여 AWS Glue 에 데이터를 전송하는 API 를 호스팅합니다. EC2 인스턴스에서 소스/대상 확인을 중지합니다. AWS Glue 를 사용하여 데이터를 변환하고 데이터를 Amazon S3 로 보냅니다. Amazon Kinesis 데이터 스트림으로 데이터를 보내도록 Amazon API Gateway API 를 구성합니다. Kinesis 데이터 스트림을 데이터 원본으로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3 로 보냅니다. 데이터를 AWS Glue 로 보내도록 Amazon API Gateway API 를 구성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. AWS Glue 를 사용하여 데이터를 Amazon S3 로 보냅니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. API를 통해 스트리밍 데이터를 수집하고 실시간으로 변환하여 저장하는 서버리스 표준 아키텍처입니다. API Gateway가 입구가 되고 Kinesis Data Streams가 데이터를 수신하며 Firehose가 Lambda를 호출해 데이터를 변환한 뒤 최종적으로 S3에 저장합니다. EC2를 직접 운영하는 것보다 운영 오버헤드가 훨씬 적으며 관리의 편의성이 극대화됩니다. 💡 이 문제의 핵심 용어 Kinesis Data Streams: 수천 개의 소스에서 초당 수백만 개의 이벤트를 수집할 수 있는 확장 가능한 실시간 데이터 스트리밍 서비스 Amazon Kinesis Data Firehose: 스트리밍 데이터를 S3, Redshift 등으로 로드하며 중간에 Lambda를 이용해 데이터 형태를 변환할 수 있는 서비스
Q78 회사는 사용자 트랜잭션 데이터를 Amazon DynamoDB 테이블에 보관해야 합니다. 회사는 데이터를 7 년간 보관해야 합니다. 이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까? DynamoDB 지정 시간 복구를 사용하여 테이블을 지속적으로 백업합니다. AWS Backup 을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. 백업을 Amazon S3 버킷에 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. DynamoDB 데이터를 7년이라는 장기 보관 요구 사항에 맞춰 관리하려면 AWS Backup이 가장 효율적입니다. 지정 시간 복구는 최대 35일까지만 가능하며 수동 스냅샷은 관리 오버헤드가 큽니다. AWS Backup은 보존 정책에 따라 콜드 스토리지로의 전환까지 자동으로 처리해주므로 가장 현대적인 방식의 백업 솔루션입니다. 💡 이 문제의 핵심 용어 AWS Backup: 여러 AWS 서비스의 데이터 백업을 중앙에서 자동화하고 관리할 수 있게 해주는 완전 관리형 정책 기반 서비스 Retention Policy (보존 정책): 백업 데이터를 얼마나 오랫동안 보관할지 정의하는 규칙
Q79 회사에서 데이터 저장을 위해 Amazon DynamoDB 테이블을 사용할 계획입니다. 회사는 비용 최적화에 대해 우려하고 있습니다. 대부분의 아침에는 테이블을 사용하지 않습니다. 저녁에는 읽기 및 쓰기 트래픽이 예측할 수 없는 경우가 많습니다. 트래픽 급증이 발생하면 매우 빠르게 발생합니다. 솔루션 아키텍트는 무엇을 추천해야 합니까? 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다. 글로벌 보조 인덱스가 있는 DynamoDB 테이블을 생성합니다. 프로비저닝된 용량 및 Auto Scaling 을 사용하여 DynamoDB 테이블을 생성합니다. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 전역 테이블로 구성합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 트래픽이 평소에는 없다가 저녁에만 예측 불가능하게 급증하는 상황에서는 미리 용량을 정해두는 프로비저닝 방식보다 온디맨드 모드가 훨씬 경제적입니다. 사용한 만큼만 비용을 지불하면서도 갑작스러운 부하에 즉각적으로 대응할 수 있어 비용과 성능 사이의 완벽한 균형을 제공합니다. 💡 이 문제의 핵심 용어 On-Demand Capacity Mode: 성능을 미리 예약하지 않고 실제 요청 수에 따라 실시간으로 확장 및 과금되는 모델 Global Secondary Index (GSI): 기본 테이블의 파티션 키와 다른 키를 사용하여 데이터를 조회할 수 있게 해주는 보조 인덱스
Q80 한 회사는 최근 애플리케이션 마이그레이션 이니셔티브에 대한 지원을 위해 AWS 관리형 서비스 공급자(MSP) 파트너와 계약을 체결했습니다. 솔루션 설계자는 기존 AWS 계정의 Amazon 머신 이미지(AMI)를 MSP 파트너의 AWS 계정과 공유해야 합니다. AMI 는 Amazon Elastic Block Store(Amazon EBS)의 지원을 받으며 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 EBS 볼륨 스냅샷을 암호화합니다. 솔루션 설계자가 MSP 파트너의 AWS 계정과 AMI 를 공유하는 가장 안전한 방법은 무엇입니까? 암호화된 AMI 및 스냅샷을 공개적으로 사용할 수 있도록 합니다. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다. AMI 의 launchPermission 속성을 수정합니다. MSP 파트너의 AWS 계정과만 AMI 를 공유하십시오. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다. AMI 의 launchPermission 속성을 수정합니다. MSP 파트너의 AWS 계정과만 AMI 를 공유하십시오. 암호화를 위해 MSP 파트너가 소유한 새 KMS 키를 신뢰하도록 키 정책을 수정합니다. 원본 계정에서 MSP 파트너의 AWS 계정에 있는 Amazon S3 버킷으로 AMI 를 내보내고 MSP 파트너가 소유한 새 KMS 키로 S3 버킷을 암호화합니다. MSP 파트너의 AWS 계정에서 AMI 를 복사하고 시작합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 암호화된 AMI를 다른 계정과 공유할 때는 AMI 자체의 실행 권한을 부여함과 동시에 암호화에 사용된 KMS 키의 정책을 수정하여 상대 계정이 그 키를 사용할 수 있도록 허용해줘야 합니다. 공개 공유는 보안상 매우 위험하므로 금기시되며 특정 계정에만 권한을 세밀하게 부여하는 것이 가장 안전한 방법입니다. 💡 이 문제의 핵심 용어 AMI (Amazon Machine Image): EC2 인스턴스를 시작하는 데 필요한 운영체제 및 소프트웨어 구성 정보가 담긴 템플릿 KMS Key Policy: 누가 어떤 방식으로 KMS 키를 사용하여 데이터를 암호화/해독할 수 있는지 정의하는 보안 정책
Q81 솔루션 설계자는 AWS 에 배포되는 새 애플리케이션을 위한 클라우드 아키텍처를 설계하고 있습니다. 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가 및 제거하면서 프로세스가 병렬로 실행되어야 합니다. 프로세서 응용 프로그램은 상태 비저장입니다. 솔루션 설계자는 응용 프로그램이 느슨하게 연결되어 있고 작업 항목이 영구적으로 저장되어 있는지 확인해야 합니다. 솔루션 설계자는 어떤 디자인을 사용해야 합니까? 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹의 조정 정책을 설정하여 네트워크 사용량에 따라 노드를 추가 및 제거합니다. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다. 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 시스템 간의 느슨한 결합과 작업 항목의 영구 저장을 위해 SQS 대기열을 사용합니다. 특히 Auto Scaling의 지표로 SQS 대기열에 쌓인 작업 수를 설정하면 처리해야 할 일이 많아질 때 정확하게 서버 수를 늘릴 수 있어 매우 효율적인 자동 리소스 관리가 가능합니다. 💡 이 문제의 핵심 용어 Stateless (상태 비저장): 각 요청이 독립적이며 서버가 이전 상태를 저장하지 않아 언제든 인스턴스를 늘리거나 줄이기 쉬운 구조 Launch Template: EC2 인스턴스를 생성할 때 필요한 설정 정보를 저장해 놓은 최신 양식
Q82 회사는 AWS 클라우드에서 웹 애플리케이션을 호스팅합니다. 회사는 AWS Certificate Manager(ACM)로 가져온 인증서를 사용하도록 Elastic Load Balancer 를 구성합니다. 각 인증서가 만료되기 30 일 전에 회사 보안팀에 알려야 합니다. 솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 권장해야 합니까? ACM 에 규칙을 추가하여 인증서가 만료되기 30 일 전부터 매일 Amazon Simple Notification Service(Amazon SNS) 주제에 사용자 지정 메시지를 게시합니다. 30 일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config 가 비준수 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Trusted Advisor 를 사용하여 30 일 이내에 만료되는 인증서를 확인합니다. 상태 변경 확인에 대한 Trusted Advisor 지표를 기반으로 하는 Amazon CloudWatch 경보를 생성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보낼도록 경보를 구성합니다. 30 일 이내에 만료되는 모든 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 리소스의 설정 상태나 규정 준수 여부를 감시하는 AWS Config에는 인증서 만료 임박 여부를 체크하는 기본 규칙이 이미 마련되어 있습니다. 이를 활용해 비준수 상태가 되었을 때 EventBridge를 통해 SNS 알림을 보내는 것이 가장 안정적이고 깔끔한 자동화 관리 방법입니다. 💡 이 문제의 핵심 용어 AWS Config: AWS 리소스 구성을 측정, 감사 및 평가하여 규정 준수 여부를 모니터링하는 서비스 EventBridge: AWS 서비스의 상태 변화를 감지하여 다른 작업과 연결해주는 스마트 스케줄러
Q83 회사의 동적 웹 사이트는 미국의 온프레미스 서버를 사용하여 호스팅됩니다. 이 회사는 유럽에서 제품을 출시하고 있으며 새로운 유럽 사용자를 위해 사이트 로딩 시간을 최적화하려고 합니다. 사이트의 백엔드는 미국에 있어야 합니다. 제품이 며칠 안에 출시되며 즉각적인 솔루션이 필요합니다. 솔루션 설계자는 무엇을 권장해야 합니까? us-east-1 에서 Amazon EC2 인스턴스를 시작하고 사이트를 마이그레이션합니다. 웹사이트를 Amazon S3 로 이동합니다. 지역 간 교차 지역 복제를 사용합니다. 온프레미스 서버를 가리키는 사용자 지정 오리진과 함께 Amazon CloudFront 를 사용합니다. 온프레미스 서버를 가리키는 Amazon Route 53 지리 근접 라우팅 정책을 사용합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 기존 서버를 유지하면서 유럽 사용자에게 빠른 속도를 제공하려면 전 세계 거점에 캐시를 두는 CDN 서비스인 CloudFront가 최선입니다. CloudFront는 S3뿐만 아니라 온프레미스 서버도 오리진으로 설정할 수 있어 즉각적인 성능 개선이 가능합니다. 이를 통해 지리적 거리에 따른 지연 시간을 획기적으로 줄일 수 있습니다. 💡 이 문제의 핵심 용어 Amazon CloudFront: 전 세계 엣지 로케이션을 통해 콘텐츠를 저지연으로 빠르게 전달하는 콘텐츠 전송 네트워크(CDN) 서비스 Custom Origin (사용자 지정 오리진): CloudFront가 콘텐츠를 가져오는 원본이 S3가 아닌 일반 HTTP 서버인 경우
Q84 회사는 기존 3 계층 웹 아키텍처의 비용을 절감하려고 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위한 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스의 평균 CPU 사용률은 사용량이 많은 시간에는 30%이고 사용량이 많지 않은 시간에는 10%입니다. 프로덕션 EC2 인스턴스는 하루 24 시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8 시간 동안 실행됩니다. 회사는 개발을 중지하고 사용하지 않을 때 EC2 인스턴스를 테스트하는 자동화를 구현할 계획입니다. 어떤 EC2 인스턴스 구매 솔루션이 가장 비용 효율적으로 회사의 요구 사항을 충족합니까? 프로덕션 EC2 인스턴스에 스팟 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트에 예약 인스턴스를 사용합니다. 프로덕션 EC2 인스턴스에 예약 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에 온디맨드 인스턴스를 사용합니다. 프로덕션 EC2 인스턴스에 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트에 예약 인스턴스를 사용합니다. 프로덕션 EC2 인스턴스에 온디맨드 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에 스팟 블록을 사용합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 24시간 꾸준히 돌아가는 프로덕션 서버는 약정 할인을 받는 예약 인스턴스(RI)가 가장 저렴합니다. 반면 필요할 때만 켜고 끄는 개발/테스트 서버는 쓴 시간만큼만 지불하는 온디맨드 방식이 유리합니다. 스팟 인스턴스는 예고 없이 끊길 수 있어 안정성이 중요한 서비스에는 적합하지 않습니다. 💡 이 문제의 핵심 용어 Reserved Instance (RI): 장기 약정을 통해 온디맨드 대비 대폭 할인된 가격으로 인스턴스를 이용하는 구매 옵션 On-Demand Instance: 약정 없이 초 단위로 실제 사용한 시간만큼만 비용을 지불하는 유연한 방식
Q85 회사에 사용자가 웹 인터페이스 또는 모바일 앱을 통해 문서를 업로드하는 프로덕션 웹 애플리케이션이 있습니다. 새로운 규제 요구 사항에 따라. 새 문서는 저장 후에 수정하거나 삭제할 수 없습니다. 솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까? 업로드된 문서를 S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 저장합니다. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다. 업로드된 문서를 S3 버전 관리가 활성화된 Amazon S3 버킷에 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL 을 구성합니다. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드에서 볼륨을 마운트하여 데이터에 액세스합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 데이터를 절대 지우거나 덮어쓰지 못하도록 규제 준수를 강제하는 기능이 바로 객체 잠금(Object Lock)입니다. 이를 위해 버킷의 버전 관리가 필수적으로 선행되어야 하며 이를 통해 보안 및 법적 보존 요건을 완벽하게 충족하는 WORM 방식의 스토리지를 구현할 수 있습니다. 💡 이 문제의 핵심 용어 S3 Object Lock: 지정한 기간 동안 객체의 삭제나 수정을 방지하여 데이터 보존 규정을 준수하게 돕는 기능 Versioning (버전 관리): S3 객체의 모든 변경 이력을 보존하여 실수로 인한 데이터 손실을 방지하는 기능
Q86 회사에는 공통 Amazon RDS MySQL 다중 AZ DB 인스턴스에 자주 액세스해야 하는 여러 웹 서버가 있습니다. 회사는 사용자 자격 증명을 자주 교체해야 하는 보안 요구 사항을 충족하면서 웹 서버가 데이터베이스에 연결할 수 있는 안전한 방법을 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? AWS Secrets Manager 에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 AWS Secrets Manager 에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다. AWS Systems Manager OpsCenter 에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 OpsCenter 에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다. 안전한 Amazon S3 버킷에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 자격 증명을 검색하고 데이터베이스에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다. 웹 서버 파일 시스템의 AWS Key Management Service(AWS KMS)로 암호화된 파일에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버는 파일을 해독하고 데이터베이스에 액세스할 수 있어야 합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 데이터베이스 암호와 같은 민감한 자산을 안전하게 보관하고 주기적으로 자동 교체해주는 전문 금고 서비스가 Secrets Manager입니다. 코드에 암호를 노출하지 않고 필요할 때마다 API를 통해 안전하게 가져오는 방식은 현대 클라우드 보안의 핵심이자 표준입니다. 💡 이 문제의 핵심 용어 AWS Secrets Manager: 애플리케이션 인증 정보(DB 암호, API 키 등)를 안전하게 관리하고 자동 교체해주는 전용 보안 서비스 Credential Rotation: 보안 강화를 주기적으로 암호 정보를 갱신하여 유출 위험을 줄이는 작업
Q87 회사는 Amazon API Gateway API 에 의해 호출되는 AWS Lambda 함수에서 애플리케이션을 호스팅합니다. Lambda 함수는 고객 데이터를 Amazon Aurora MySQL 데이터베이스에 저장합니다. 회사에서 데이터베이스를 업그레이드할 때마다 Lambda 함수는 업그레이드가 완료될 때까지 데이터베이스 연결을 설정하지 못합니다. 그 결과 일부 이벤트에 대한 고객 데이터가 기록되지 않습니다. 솔루션 설계자는 데이터베이스 업그레이드 중에 생성되는 고객 데이터를 저장하는 솔루션을 설계해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? Lambda 함수와 데이터베이스 사이에 위치하도록 Amazon RDS 프록시를 프로비저닝합니다. RDS 프록시에 연결하도록 Lambda 함수를 구성합니다. Lambda 함수의 실행 시간을 최대로 늘립니다. 데이터베이스에 고객 데이터를 저장하는 코드에서 재시도 메커니즘을 만듭니다. 고객 데이터를 Lambda 로컬 스토리지에 유지합니다. 고객 데이터를 데이터베이스에 저장하기 위해 로컬 스토리지를 스캔하도록 새로운 Lambda 함수를 구성합니다. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 고객 데이터를 저장합니다. 대기열을 폴링하고 고객 데이터를 데이터베이스에 저장하는 새 Lambda 함수를 생성합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. DB 점검 등으로 연결이 안 될 때 데이터를 지키려면 완충 지대인 SQS 대기열이 필수입니다. 일단 데이터를 안전한 대기열에 쌓아두고 DB가 정상화된 후 별도의 Lambda가 대기열에서 메시지를 꺼내 DB에 반영하면 데이터 유실을 완벽하게 방어할 수 있습니다. 💡 이 문제의 핵심 용어 SQS FIFO Queue: 메시지 순서를 보장하고 중복 처리를 방지하는 고정밀 대기열 Loose Coupling (느슨한 결합): 구성 요소들이 직접 연결되지 않아 한쪽의 장애가 전체로 번지지 않게 하는 유연한 설계
Q88 설문 조사 회사는 미국 지역에서 수년 동안 데이터를 수집했습니다. 이 회사는 크기가 3TB 이고 계속 증가하는 Amazon S3 버킷에 데이터를 호스팅합니다. 이 회사는 S3 버킷이 있는 유럽 마케팅 회사와 데이터를 공유하기 시작했습니다. 회사는 데이터 전송 비용이 가능한 한 낮게 유지되기를 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 회사의 S3 버킷에서 요청자 지불 기능을 구성합니다. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다. S3 Intelligent-Tiering 을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. S3에서 대규모 데이터를 내려받을 때 발생하는 데이터 전송 비용을 데이터 소유자가 아닌 가져가는 사람이 내게 하는 경제적인 설정입니다. 특히 대양을 건너는 대규모 데이터 전송 시 소유자의 비용 부담을 덜어주면서도 데이터를 안전하게 공유할 수 있는 가장 직접적인 해법입니다. 💡 이 문제의 핵심 용어 Requester Pays (요청자 지불): 데이터 요청자가 다운로드 비용을 수락하고 지불하게 하는 스마트한 S3 버킷 옵션 Cross-Region Transfer Fee: 데이터가 AWS 리전 경계를 넘을 때 발생하는 일반적인 네트워크 통신 비용
Q89 회사는 Amazon S3 를 사용하여 기밀 감사 문서를 저장합니다. S3 버킷은 버킷 정책을 사용하여 최소 권한 원칙에 따라 감사 팀 IAM 사용자 자격 증명에 대한 액세스를 제한합니다. 회사 관리자는 S3 버킷에서 실수로 문서가 삭제되는 것을 걱정하고 더 안전한 솔루션을 원합니다. 솔루션 설계자는 감사 문서를 보호하기 위해 무엇을 해야 합니까? S3 버킷에서 버전 관리 및 MFA 삭제 기능을 활성화합니다. 각 감사 팀 IAM 사용자 계정의 IAM 사용자 자격 증명에 대해 다단계 인증(MFA)을 활성화합니다. 감사 날짜 동안 s3:DeleteObject 작업을 거부하도록 감사 팀의 IAM 사용자 계정에 S3 수명 주기 정책을 추가합니다. AWS Key Management Service(AWS KMS)를 사용하여 S3 버킷을 암호화하고 감사 팀 IAM 사용자 계정이 KMS 키에 액세스하지 못하도록 제한합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 실수로 파일을 지워도 즉시 복구할 수 있는 버전 관리와 중요한 삭제 명령 시 반드시 추가 보안 인증을 거치게 하는 MFA 삭제를 조합해야 합니다. 이런 이중 안전 장치를 통해 관리자의 불안을 원천적으로 해소하고 기업의 소중한 정보를 강력하게 보호할 수 있습니다. 💡 이 문제의 핵심 용어 MFA Delete: 객체를 영구 삭제할 때 반드시 추가적인 인증 장치를 거치게 강제하는 강력한 보안 기능 Data Integrity (데이터 무결성): 데이터가 인가되지 않은 수정이나 유실 없이 본래의 모습 그대로 일관되게 보관되는 성질
Q90 회사에서 SQL 데이터베이스를 사용하여 공개적으로 액세스할 수 있는 영화 데이터를 저장하고 있습니다. 데이터베이스는 Amazon RDS 단일 AZ DB 인스턴스에서 실행됩니다. 스크립트는 데이터베이스에 추가된 새로운 영화의 수를 기록하기 위해 매일 임의의 간격으로 쿼리를 실행합니다. 스크립트는 업무 시간 동안의 최종 합계를 보고해야 합니다. 회사의 개발 팀은 스크립트가 실행 중일 때 데이터베이스 성능이 개발 작업에 부적절하다는 것을 알아차렸습니다. 솔루션 설계자는 이 문제를 해결하기 위한 솔루션을 권장해야 합니다. 최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까? DB 인스턴스를 다중 AZ 배포로 수정합니다. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다. 개발 팀에게 매일 일과가 끝날 때 데이터베이스의 항목을 수동으로 내보내도록 지시합니다. Amazon ElastiCache 를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반적인 쿼리를 캐시합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 통계용 쿼리가 몰려서 서비스 성능이 떨어질 때는 읽기 전용 복제본(Read Replica)을 투입하는 것이 표준 해결책입니다. 모든 조회 요청을 분신과 같은 복제본으로 돌리면 원본 데이터베이스는 본연의 업무에 집중할 수 있어 시스템 전체의 쾌적함이 살아납니다. 💡 이 문제의 핵심 용어 Read Replica (읽기 전용 복제본): 동일한 데이터를 가진 보조 데이터베이스 인스턴스를 만들어 읽기 부하를 효과적으로 분산하는 기술 Resource Contention (자원 경합): 여러 프로세스가 동시에 한정된 리소스를 차지하려다 성능이 저하되는 현상
Q91 회사가 VPC 의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 애플리케이션 중 하나는 Amazon S3 API 를 호출하여 객체를 저장하고 읽어야 합니다. 회사의 보안 규정에 따라 응용 프로그램의 트래픽은 인터넷을 통해 이동할 수 없습니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? S3 게이트웨이 엔드포인트를 구성합니다. 프라이빗 서브넷에 S3 버킷을 생성합니다. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. S3는 무제한 창고 역할을 하지만 기본적으로 인터넷망을 통해 연결됩니다. 이 장벽을 허무는 것이 VPC 게이트웨이 엔드포인트입니다. 이 전용 통로를 설치하면 데이터가 인터넷으로 나가지 않고 AWS 내부망으로만 소통하게 되어 보안 규정 준수는 물론이고 전송 속도 향상까지 덤으로 얻을 수 있습니다. 💡 이 문제의 핵심 용어 VPC Endpoint (Gateway): 인터넷 게이트웨이 없이도 VPC 내에서 S3 또는 DynamoDB에 비공개로 접속하게 해주는 전용 통로 Private Networking: 데이터가 공용망을 거치지 않고 오직 통제된 내부 네트워크에서만 소통하도록 설계된 통신 구조
Q92 회사에서 Amazon S3 버킷에 민감한 사용자 정보를 저장하고 있습니다. 회사는 VPC 내부의 Amazon EC2 인스턴스에서 실행되는 애플리케이션 계층에서 이 버킷에 대한 보안 액세스를 제공하려고 합니다. 솔루션 설계자는 이를 달성하기 위해 어떤 단계 조합을 취해야 합니까? (2 개를 선택하세요.) VPC 내에서 Amazon S3 용 VPC 게이트웨이 엔드포인트를 구성합니다. S3 버킷의 객체를 퍼블릭으로 만들기 위한 버킷 정책을 생성합니다. VPC 에서 실행되는 애플리케이션 계층으로만 액세스를 제한하는 버킷 정책을 생성합니다. S3 액세스 정책으로 IAM 사용자를 생성하고 IAM 자격 증명을 EC2 인스턴스에 복사합니다. NAT 인스턴스를 생성하고 EC2 인스턴스가 NAT 인스턴스를 사용하여 S3 버킷에 액세스하도록 합니다. 정답 확인 및 해설 📖 해설 정답은 A와 C입니다. 물리적인 비공개 통로인 VPC 게이트웨이 엔드포인트를 먼저 만들고 논리적인 문지기인 버킷 정책에서 해당 통로만 허용하도록 명시하는 이중 보안 전략입니다. 이 조합을 통해 인터넷으로부터 데이터를 철저하게 격리하면서도 필요한 서버들만 안전하게 정보를 꺼내 쓸 수 있는 견고한 보안 성벽을 완성할 수 있습니다. 💡 이 문제의 핵심 용어 Bucket Policy: S3 버킷에 부착하여 누가 어떤 조건에서 접속할 수 있는지 세밀하게 조절하는 권한 정보 Secure Access (보안 액세스): 인가된 사용자나 리소스만이 사전에 정의된 물리적/논리적 경로를 통해서만 데이터에 접근하는 보안 상태
Q93 회사는 MySQL 데이터베이스로 구동되는 온프레미스 애플리케이션을 실행합니다. 이 회사는 애플리케이션의 탄력성과 가용성을 높이기 위해 애플리케이션을 AWS 로 마이그레이션하고 있습니다. 현재 아키텍처는 정상 작동 시간 동안 데이터베이스에서 많은 읽기 활동을 보여줍니다. 회사의 개발 팀은 4 시간마다 프로덕션 데이터베이스의 전체 내보내기를 가져와 준비 환경의 데이터베이스를 채웁니다. 이 기간 동안 사용자는 허용할 수 없는 애플리케이션 대기 시간을 경험합니다. 개발 팀은 절차가 완료될 때까지 스테이징 환경을 사용할 수 없습니다. 솔루션 설계자는 애플리케이션 지연 문제를 완화하는 대체 아키텍처를 권장해야 합니다. 또한 대체 아키텍처는 개발 팀이 지연 없이 스테이징 환경을 계속 사용할 수 있는 능력을 제공해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? 프로덕션용 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL 을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채웁니다. 프로덕션용 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL 을 사용합니다. 데이터베이스 복제를 사용하여 요청 시 스테이징 데이터베이스를 생성합니다. 다중 AZ 배포 및 프로덕션용 읽기 전용 복제본과 함께 MySQL 용 Amazon RDS 를 사용합니다. 스테이징 데이터베이스에 대해 대기 인스턴스를 사용합니다. 다중 AZ 배포 및 프로덕션용 읽기 전용 복제본과 함께 MySQL 용 Amazon RDS 를 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채웁니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. Aurora의 환상적인 기능인 클로닝을 사용하면 운영 데이터베이스의 복사본을 단 몇 분 만에 뚝딱 만들어낼 수 있습니다. 무거운 덤프 작업 없이도 운영에 전혀 지장을 주지 않으면서 실시간에 가까운 개발 환경을 제공할 수 있어 개발 생산성이 획기적으로 향상됩니다. 💡 이 문제의 핵심 용어 Amazon Aurora: 클라우드 네이티브 아키텍처를 사용해 고성능과 고가용성을 제공하는 현대적인 데이터베이스 서비스 Database Cloning: 원본 데이터 저장소를 복제하지 않고도 동일한 내용을 공유하는 새 데이터베이스를 매우 빠르게 생성하는 마법 같은 기술
Q94 한 회사에서 사용자가 Amazon S3 에 작은 파일을 업로드하는 애플리케이션을 설계하고 있습니다. 사용자가 파일을 업로드한 후 데이터를 변환하고 나중에 분석할 수 있도록 데이터를 JSON 형식으로 저장하려면 파일에 일회성 단순 처리가 필요합니다. 각 파일은 업로드 후 최대한 빨리 처리해야 합니다. 수요는 다양할 것입니다. 어떤 날에는 사용자가 많은 수의 파일을 업로드합니다. 다른 날에는 사용자가 몇 개의 파일을 업로드하거나 파일을 업로드하지 않습니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? Amazon S3 에서 텍스트 파일을 읽도록 Amazon EMR 을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다. Amazon SQS(Amazon Simple Queue Service) 대기열에 이벤트 알림을 보내도록 Amazon S3 를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB 에 저장합니다. 이벤트 알림을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내도록 Amazon S3 를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB 에 저장합니다. 새 파일이 업로드될 때 Amazon Kinesis Data Streams 에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림에서 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 파일이 들어오는 즉시 Lambda 요정을 깨워서 일을 시키는 것이 가장 효율적인 현대적 자동화 방식입니다. 사용량이 들쭉날쭉해도 필요한 순간에만 비용이 발생하므로 가성비가 뛰어나며 복잡한 서버 관리 없이도 대규모 처리를 척척 해낼 수 있습니다. 💡 이 문제의 핵심 용어 Event Notification: 파일 업로드 같은 사건이 발생할 때 다른 자동화 시스템에 신호를 전달하는 조기 경보 기능 AWS Lambda: 서버 관리의 번거로움 없이 코드만 등록해두면 필요할 때 알아서 실행되는 이벤트 주도형 컴퓨팅 서비스
Q95 응용 프로그램을 사용하면 회사 본사의 사용자가 제품 데이터에 액세스할 수 있습니다. 제품 데이터는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 운영 팀은 애플리케이션 성능 저하를 격리하고 쓰기 트래픽에서 읽기 트래픽을 분리하려고 합니다. 솔루션 설계자는 애플리케이션의 성능을 신속하게 최적화해야 합니다. 솔루션 설계자는 무엇을 권장해야 합니까? 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 제공합니다. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 제공합니다. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스로 읽기 전용 복제본을 구성합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 읽기 부하를 분산시키기 위해 원본과 똑같은 체급을 가진 분신 데이터베이스를 투입해야 합니다. 사양이 낮은 분신을 쓰면 원본에서 넘어오는 대량의 정보를 처리하지 못해 오히려 시스템이 더 꼬일 수 있으므로 반드시 동일한 성능을 갖추는 것이 핵심입니다. 💡 이 문제의 핵심 용어 Read Replica: 읽기 작업만을 전담하여 시스템 전체의 정체 현상을 해소하는 든든한 조력자 인스턴스 Replica Lag: 원본과 분신 사이의 데이터 일치 속도 차이로 본체보다 성능이 낮을 때 주로 발생하는 지체 현상
Q96 Amazon EC2 관리자는 여러 사용자가 포함된 IAM 그룹과 연결된 다음 정책을 생성했습니다. 이 정책의 효과는 무엇입니까? 사용자는 us-east-1 을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다. 사용자는 us-east-1 리전에서 IP 주소가 10.100.100.1 인 EC2 인스턴스를 종료할 수 있습니다. 사용자는 사용자의 소스 IP 가 10.100.100.254 일 때 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다. 사용자의 소스 IP 가 10.100.100.254 인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 없습니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 특정 IP 주소라는 믿을 수 있는 열쇠를 가진 사람만이 명령을 내릴 수 있게 제한하는 전형적인 보안 수칙입니다. 지정된 주소가 아닌 곳에서 오는 요청은 원천 봉쇄하여 관리자 계정이 탈취되더라도 외부에서는 함부로 시스템을 건드리지 못하게 만드는 강력한 안전 장치입니다. 💡 이 문제의 핵심 용어 IAM Policy Condition: 특정 장소나 시간 같은 특별한 상황에서만 권한이 작동하도록 설정하는 세부 명세서 aws:SourceIp: 요청자가 현재 어디(IP 주소)에서 접속하고 있는지 확인하는 보안 식별 키
Q97 회사에는 Microsoft Windows 공유 파일 저장소가 필요한 온프레미스에서 실행되는 대규모 Microsoft SharePoint 배포가 있습니다. 회사는 이 워크로드를 AWS 클라우드로 마이그레이션하기를 원하며 다양한 스토리지 옵션을 고려하고 있습니다. 저장소 솔루션은 액세스 제어를 위해 고가용성 및 Active Directory 와 통합되어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? Amazon EFS 스토리지를 구성하고 인증을 위해 Active Directory 도메인을 설정합니다. 두 가용 영역의 AWS Storage Gateway 파일 게이트웨이에 SMB 파일 공유를 생성합니다. Amazon S3 버킷을 생성하고 볼륨으로 탑재하도록 Microsoft Windows Server 를 구성합니다. AWS 에서 Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하고 인증을 위해 Active Directory 도메인을 설정합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. Windows 환경의 모든 특권을 클라우드에서도 그대로 누리고 싶다면 FSx for Windows가 최상의 파트너입니다. 익숙한 AD 연동과 고성능 SMB 프로토콜을 완벽하게 지원하므로 마치 내 집 안방처럼 편안하고 튼튼하게 기업용 파일 저장소를 운영할 수 있습니다. 💡 이 문제의 핵심 용어 Active Directory: 사용자 신원과 자원을 통합 관리하는 기업용 보안 중추 시스템 SMB (Server Message Block): 파일을 주고받는 데 쓰이는 Windows 표준 통신 언어
Q98 이미지 처리 회사에는 사용자가 이미지를 업로드하는 데 사용하는 웹 응용 프로그램이 있습니다. 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 회사는 객체 생성 이벤트를 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 게시하도록 S3 이벤트 알림을 설정했습니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다. 사용자는 업로드된 모든 이미지에 대해 여러 이메일 메시지를 수신하고 있다고 보고합니다. 솔루션 설계자는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지를 생성한다고 판단합니다. 솔루션 설계자는 이 문제를 최소한의 운영 오버헤드로 해결하기 위해 무엇을 해야 합니까? ReceiveMessage 대기 시간을 30 초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 메시지 중복 제거 ID 를 사용하여 중복 메시지를 버리십시오. SQS 대기열의 가시성 제한 시간을 함수 제한 시간과 일괄 처리 창 제한 시간의 합계보다 큰 값으로 늘립니다. 처리 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 일꾼이 일을 다 마치기 전에 대기열에서 가려진 보자기(가시성)를 걷어버려 생기는 불상사입니다. 가시성 제한 시간을 충분히 넉넉하게 늘려주면 일꾼이 작업을 끝내고 정식으로 보고할 때까지 아무도 그 일을 가로채지 못하게 되어 중복 발송 문제를 깔끔하게 해결할 수 있습니다. 💡 이 문제의 핵심 용어 Visibility Timeout: 누군가 가져간 메시지를 다른 사람이 또 가져가지 못하도록 잠시 숨겨두는 보안 대기 시간 Idempotency (멱등성): 같은 작업을 아무리 반복해도 늘 같은 결과가 나오게 보장하여 시스템의 안정성을 높이는 성질
Q99 회사는 온프레미스 데이터 센터에서 호스팅되는 게임 애플리케이션을 위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 응용 프로그램 서버를 파일 공유에 연결합니다. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 응용 프로그램 서버를 파일 공유에 연결합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre 를 지원하도록 구성합니다. 파일 시스템을 원본 서버에 연결합니다. 응용 프로그램 서버를 파일 시스템에 연결합니다. Lustre 파일 시스템용 Amazon FSx 를 생성합니다. 파일 시스템을 원본 서버에 연결합니다. 응용 프로그램 서버를 파일 시스템에 연결합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 번개처럼 빠른 속도가 생명인 게임이나 슈퍼컴퓨팅 환경에는 FSx for Lustre가 정답입니다. 수천 개의 자기가 동시에 달려들어도 막힘없이 정보를 내어주는 엄청난 수용력을 가진 완전 관리형 날개라고 이해하시면 됩니다. 💡 이 문제의 핵심 용어 Lustre: 전 세계에서 가장 빠른 슈퍼컴퓨터들이 즐겨 쓰는 전설적인 병렬 파일 처리 엔진 High Performance Computing: 방대한 계산을 찰나의 순간에 해치우는 고성능 컴퓨팅의 세계
Q100 회사의 컨테이너화된 애플리케이션은 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 다른 비즈니스 애플리케이션과 통신하기 전에 보안 인증서를 다운로드해야 합니다. 회사는 거의 실시간으로 인증서를 암호화하고 해독할 수 있는 매우 안전한 솔루션을 원합니다. 또한 솔루션은 데이터가 암호화된 후 고가용성 스토리지에 데이터를 저장해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? 암호화된 인증서에 대한 AWS Secrets Manager 암호를 생성합니다. 필요에 따라 인증서를 수동으로 업데이트합니다. 세분화된 IAM 액세스를 사용하여 데이터에 대한 액세스를 제어합니다. Python 암호화 라이브러리를 사용하여 암호화 작업을 수신하고 수행하는 AWS Lambda 함수를 생성합니다. 함수를 Amazon S3 버킷에 저장합니다. AWS Key Management Service(AWS KMS) 고객 관리형 키를 생성합니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon S3 에 저장합니다. AWS Key Management Service(AWS KMS) 고객 관리형 키를 생성합니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 암호의 열쇠는 안전한 KMS 금고에 맡기고 실제 암호화된 보물 상자는 무한 복제 보관이 가능한 S3 창고에 두는 강력한 방어 전략입니다. 복잡한 관리 필요 없이 마우스 클릭 몇 번으로 최고 수준의 보안과 안정성을 한꺼번에 챙길 수 있는 가장 현명한 설계입니다. 💡 이 문제의 핵심 용어 AWS KMS: 회사의 소중한 데이터를 자물쇠로 잠그고 열 수 있게 관리해주는 클라우드 전용 열쇠 관리소 High Availability Storage: 어떤 재난이 닥쳐도 데이터가 사라지지 않고 항상 꺼내 쓸 수 있도록 분산 보관되는 튼튼한 저장 시스템