Q326 S3 Standard 버킷에 대량의 데이터를 올리는 이미지 호스팅 회사가 있습니다. 처음 30일은 자주 쓰이지만 그 이후엔 쓰임새가 불규칙합니다. 고가용성을 유지하면서 비용을 가장 잘 아끼는 방법 두 가지는? (2개 선택) 30일이 지나면 데이터를 S3 Intelligent-Tiering으로 옮깁니다. 실패한 멀티파트 업로드 파일을 정리하는 수명 주기 정책을 만듭니다. 만료된 개체의 삭제 마커를 정리하는 수명 주기 정책을 세웁니다. 30일 후 데이터를 S3 Standard-IA로 이동시킵니다. 30일 후 데이터를 S3 One Zone-IA로 이동시킵니다. 정답 확인 및 해설 📖 해설 정답은 A와 B입니다. 데이터의 접속 패턴이 불규칙하거나 예측하기 힘들 때는 S3 Intelligent-Tiering(A)이 가장 현명한 선택입니다. 사용량에 따라 자동으로 요금을 깎아주기 때문이죠. 또한, 큰 파일을 올리다 중간에 멈춘 '멀티파트 업로드(B)' 찌꺼기 파일들이 용량만 차지하지 않도록 수명 주기 정책으로 자동 청소해주면 새나가는 돈을 완벽히 막을 수 있습니다. 다른 옵션인 D와 E는 패턴이 불규칙할 때 대응력이 떨어지며, C는 삭제 마커 관리라 직접적인 용량 확보와요금 절감 효과는 B보다 적습니다. 💡 이 문제의 핵심 용어 S3 Intelligent-Tiering: 데이터 접속 패턴을 분석해 자주 안 쓰는 파일은 자동으로 저렴한 저장소로 옮겨주는 기능 Multipart Upload: 큰 파일을 여러 조각으로 나누어 올리는 효율적인 전송 방식 Lifecycle Policy (수명 주기 정책): 시간이 지나면 파일을 지우거나 싼 저장소로 자동 이동시키는 규칙
Q327 민감한 데이터가 든 프라이빗 서브넷의 서버가 보안 정책상 특정 URL의 소프트웨어 업데이트만 허용하고 나머지 인터넷 접속은 막아야 합니다. 가장 적합한 보안 구성은? 프라이빗 서브넷의 길목에 AWS Network Firewall을 두고 도메인 리스트 규칙을 설정합니다. AWS WAF를 설치하고 IP 주소를 기반으로 트래픽을 필터링하는 규칙을 만듭니다. 보안 그룹 설정에서 아웃바운드 규칙에 허용할 도메인 주소를 직접 적습니다. 서버 앞단에 ALB를 두고, 대상 그룹 설정에서 URL 기반 규칙을 적용합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 나가는 길목(Egress)을 지키며 특정 URL만 허용하는 '화이트리스트' 방식에는 AWS Network Firewall이 제격입니다. 이 서비스의 '도메인 리스트 규칙 그룹'을 쓰면, 업데이트 서버 주소는 통과시키고 나머지 수상한 접속은 싹 차단할 수 있습니다. 보안 그룹은 도메인 이름(URL)을 인식하지 못하기 때문에 이 업무를 수행할 수 없습니다. 다른 옵션인 B(WAF)는 밖에서 안으로 들어오는 공격을 막는 용도이며, D(ALB)는 서버로 들어오는 손님을 안내하는 역할이라 밖으로 나가는 트래픽을 세밀하게 통제하기엔 적절하지 않습니다. 💡 이 문제의 핵심 용어 AWS Network Firewall: VPC 전체의 네트워크 통신을 정밀하게 감시하고 제어하는 관리형 방화벽 서비스 Domain List Rule Group: 허용하거나 차단할 도메인 이름(예: google.com)들의 목록을 관리하는 설정 Egress Traffic: 내 네트워크(VPC)에서 외부 인터넷으로 나가는 데이터 흐름
Q328 전자상거래 앱에서 신제품 출시 때 주문 요청이 폭주할 것으로 예상됩니다. 모든 요청을 누락 없이 처리하고 시스템 중단을 막기 위한 설계는? 모든 콘텐츠를 CloudFront로 배달하고 사전에 서버 대수를 수동으로 늘립니다. 정적 파일은 CloudFront로 보내고, 서버는 트래픽에 맞춰 자동으로 대수가 늘어나게 합니다. 동적 콘텐츠 배달용 CloudFront를 추가하고 로드 밸런서 앞에 캐시 서버를 둡니다. 정적 콘텐츠는 CloudFront를 쓰고, 주문 요청은 일단 SQS 대기열에 담아 순차적으로 처리합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 손님이 한꺼번에 몰릴 때 입구에서 바로 계산하려 하면 줄이 엉망이 되고 시스템이 터지기 마련입니다. 이럴 때는 SQS라는 가상의 대기표 발행기를 앞에 두는 게 상책입니다. 일단 모든 주문을 번호표 뽑듯 대기열에 다 받아두고, 서버들이 자기 체력에 맞춰 하나씩 가져가서 처리하면 아무리 손님이 많아도 시스템이 죽지 않고 모든 주문을 성공적으로 완수할 수 있습니다. 다른 옵션인 A, B, C는 서버 부하를 줄이거나 대수를 늘려주지만, 순각적인 폭증(Spike) 상황에서 서버가 깨어나는 속도보다 주문량이 더 많으면 주문 누락이 발생할 위험이 큽니다. 💡 이 문제의 핵심 용어 SQS (Simple Queue Service): 한꺼번에 몰리는 요청을 임시로 담아두는 안전한 대기 바구니 Decoupling (비동기화): 시스템 구성 요소들을 분리하여 한쪽이 너무 바빠져도 다른 쪽에 영향을 주지 않게 만드는 것 Static Content: 이미지나 JS 파일처럼 내용이 잘 변하지 않는 웹 페이지 구성 요소
Q329 서버 수백 대의 보안 취약점을 매일 검사하고, 자동으로 최신 보안 패치까지 적용한 뒤 그 결과 보고서를 매번 받고 싶습니다. 어떤 서비스를 활용할까요? Amazon Macie로 취약점을 찾고, 서버마다 예약 작업(Cron)을 걸어 패치를 시킵니다. GuardDuty를 켜서 감시하고, Systems Manager의 Session Manager로 수동 패치합니다. Amazon Detective로 분석하고, EventBridge로 정해진 시간마다 패치 작업을 예약합니다. Amazon Inspector로 취약점을 찾고, AWS Systems Manager Patch Manager로 패치와 보고를 자동화합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 서버의 '정밀 진단'은 Amazon Inspector가, '자동 수술 및 처방'은 Patch Manager가 담당하는 환상의 콤비입니다. Inspector가 매일 서버를 훑어서 약점이 어딘지 찾아내면, Patch Manager가 미리 정해둔 시간에 맞춰 자동으로 업데이트를 설치하고 '오늘 몇 대 성공했습니다'라고 깔끔한 보고서까지 써주니 관리자는 걱정할 게 없습니다. 다른 옵션인 A(Macie)는 개인 정보 탐색용이며, B와 C는 침입 탐지나 분석 도구이지 실제 서버 패치를 대규모로 자동화해주는 전문 기능은 아닙니다. 💡 이 문제의 핵심 용어 Amazon Inspector: 서버의 보안 취약점과 설정 오류를 자동으로 찾아주는 전문 스캔 서비스 Patch Manager: 수많은 서버의 보안 업데이트를 정해진 규칙에 따라 자동으로 실행해주는 관리 도구 Vulnerability (취약점): 해커가 침입할 수 있는 프로그램상의 약점이나 결함
Q330 RDS 데이터베이스에 저장된 데이터의 보안을 위해 '미사용 데이터(At-rest)'를 암호화하려 합니다. 설계자가 해야 할 기본 작업은? AWS KMS에서 암호화 키를 생성하고 DB를 만들 때 암호화 옵션을 활성화합니다. 암호 키를 직접 만들어 Secrets Manager에 보관하고 이를 DB 연결에 씁니다. ACM에서 보안 인증서를 발급받아 DB 접속 시 SSL/TLS 통신을 켭니다. IAM에서 사용자 인증서를 만들고 이를 DB의 보안 통신 구간에 적용합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 하드디스크에 저장된 데이터 원본 자체를 잠그는 것이 '미사용 데이터 암호화'입니다. AWS의 열쇠 관리 서비스인 KMS에서 튼튼한 열쇠를 하나 만들고, RDS를 처음 생성할 때 '이 열쇠로 잠궈줘'라고 설정만 하면 저장되는 모든 데이터가 자동으로 암호문으로 변하여 안전하게 보호됩니다. 다른 옵션인 B는 비번 관리용이고, C와 D는 통신 구간 보안(In-transit)이지 저장 데이터 자체를 잠그는 방법은 아닙니다. 💡 이 문제의 핵심 용어 at-rest Encryption: 데이터가 전송 중이 아닐 때, 하드디스크나 데이터베이스에 저장된 상태로 암호화되는 것 AWS KMS (Key Management Service): 암호화에 필요한 디지털 열쇠를 안전하게 만들고 관리해주는 금고 시스템 Ciphertext (암호문): 해독 열쇠 없이는 내용을 알 수 없게 복잡하게 꼬인 데이터
Q331 데이터 센터의 20TB 데이터를 30일 이내에 AWS로 옮겨야 합니다. 현재 인터넷 대역폭은 15Mbps로 매우 느린데, 가장 현실적인 마이그레이션 방법은? AWS Snowball 장비를 신청하여 데이터를 담아 물리적으로 보냅니다. AWS DataSync를 사용하여 느린 인터넷 회선으로 한 달간 전송합니다. 사무실과 AWS 사이에 전용선(VPN)을 깔고 밤낮없이 데이터를 보냅니다. S3 Transfer Acceleration 기능을 켜서 전송 속도를 최대한 끌어올립니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 20TB를 15Mbps의 느린 인터넷으로 보내려면 끊기지 않고 풀로 가동해도 수개월이 걸릴 수 있는 무모한 도전입니다. 이럴 때는 트럭이나 택배로 장비를 보내는 게 훨씬 빠릅니다. Snowball이라는 거대한 저장 장치를 사무실로 배송받아 데이터를 담아 돌려보내면, 며칠 안에 20TB를 안전하게 클라우드로 이사할 수 있습니다. 다른 옵션인 B, C, D는 모두 인터넷 회선을 타기 때문에 15Mbps라는 좁은 길목에서는 30일 안에 완료하는 것이 불가능합니다. 💡 이 문제의 핵심 용어 AWS Snowball: 인터넷이 느릴 때 수십 테라바이트의 데이터를 물리적으로 실어 나르는 클라우드용 하드웨어 가방 Migration (마이그레이션): 새 동네로 이사하듯 데이터와 시스템을 클라우드 환경으로 이전하는 과정 Bandwidth (대역폭): 통신 통로에서 한 번에 지나갈 수 있는 데이터의 양
Q332 원격 근무 직원이 늘어나 파일 서버 용량이 부족해졌습니다. 기밀 파일을 직원의 기기로 안전하게 내려받게 하고 싶을 때 가장 적합한 설계는? 파일 서버를 인터넷에 공개된 EC2로 옮기고 직원들의 IP 주소만 허용합니다. FSx for Windows로 데이터를 옮기고 사내 Active Directory 및 VPN으로 보안을 강화합니다. 모든 파일을 S3로 옮기고 접속할 때마다 임시 서명 주소(Signed URL)를 발급합니다. S3로 이사하고 모든 직원이 통합 로그인(SSO)을 통해 접속하게 공개 설정합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 윈도우 기반 사내 파일 서버를 가장 이질감 없이 옮기는 방법은 FSx for Windows입니다. 기존에 쓰던 사내 계정(Active Directory) 시스템을 그대로 연동할 수 있고, VPN이라는 암호화된 전용 통로까지 더하면 집에서 일하는 직원도 마치 사무실 옆 자리 하드디스크를 쓰듯 기밀 파일을 안전하고 편리하게 사용할 수 있습니다. 다른 옵션인 A나 D는 보안 위가 너무 높으며, C는 매번 주소를 받는 과정이 일반적인 파일 공유 시스템 활용법보다 번거롭습니다. 💡 이 문제의 핵심 용어 FSx for Windows File Server: 사내 윈도우 파일 서버를 클라우드 서비스 형태로 그대로 옮겨놓은 것 Active Directory: 회사 내부인들의 아이디와 권한을 통합 관리하는 윈도우용 보안 시스템 VPN (Virtual Private Network): 공공 인터넷 속에서 나만의 암호화된 비밀 통로를 만들어주는 기술
Q333 매달 1일 자정에 재무 정산 작업이 시작되면 서버 CPU가 100%로 치솟으며 앱이 먹통이 됩니다. 이를 막기 위해 설계자가 제안할 가장 깔끔한 방법은? 서버 앞단에 CloudFront를 세워 부하를 분산시킵니다. 사용량에 따라 대수를 조절하는 '단순 조정 정책'을 강화합니다. 매달 1일 자정 직전에 서버 대수를 미리 늘려두는 '예약 조정 정책'을 씁니다. 부족한 성능을 보충하기 위해 캐시 서버(ElastiCache)를 추가로 설치합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 언제 부하가 몰릴지 이미 정확한 '일정'을 알고 있다면, 일이 터지기 전에 미리 대비하는 게 최고입니다. '매달 1일 23시 30분에 서버를 10대로 늘려줘'라고 예약(Scheduled Scaling)을 걸어두면, 시스템은 정산 작업이 시작되기도 전에 체력을 보강해두어 아무리 힘든 작업이 와도 끄떡없이 버텨낼 수 있습니다. 다른 옵션인 B는 부하가 터진 뒤에야 반응하므로 초기 렉(Lag)을 막기 힘들고, A와 D는 연산 중심의 정산 작업 부하를 근본적으로 해결해주지는 못합니다. 💡 이 문제의 핵심 용어 Scheduled Scaling: 트래픽이 특정 시간에 몰릴 것을 미리 알고 예약된 스케줄에 맞춰 서버를 늘리는 기능 EC2 Auto Scaling: 부하에 따라 서버 대수를 자동으로 조절해주는 관리 그룹 Downtime (휴지 시간): 장애 등으로 인해 시스템 이용이 불가능한 시간
Q334 고객이 이미 익숙한 SFTP 프로그램을 써서 S3의 파일을 내려받게 하고 싶습니다. 사내 직원 계정(Active Directory)으로 인증까지 붙이려 할 때 가장 좋은 선택은? AWS Transfer Family를 SFTP 모드로 설정하고 사내 AD 인증을 연동합니다. AWS DMS를 이용하여 개인 컴퓨터와 S3 사이의 파일을 실시간 동기화합니다. DataSync 작업을 만들고 직원들이 직접 통합 로그인(SSO)으로 접속하게 합니다. EC2 한 대 빌려서 윈도우용 SFTP 서버를 직접 깔고 S3를 연결해 관리합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 고객은 평소 쓰던 SFTP 프로그램 그대로 접속하고 싶어 하고, 관리자는 복잡한 서버 관리를 피하고 싶다면 Transfer Family가 정답입니다. S3를 마치 파일 서버처럼 보이게 해주면서도, 뒷단에서 사내 계정 시스템과 연결해 '철수님은 들어와도 돼요'라는 인증까지 완벽히 처리해주니 운영 부담이 거의 없습니다. 다른 옵션인 D는 서버 관리 독박을 써야 하며, B와 C는 데이터 전송 방식 자체가 SFTP 클라이언트 활용법과는 거리가 멉니다. 💡 이 문제의 핵심 용어 AWS Transfer Family: SFTP 고유의 방식은 유지하면서 저장소는 S3나 EFS를 쓰게 해주는 관리형 전송 서비스 SFTP: 파일을 안전하게 주고받기 위해 보안 암호화 경로를 사용하는 전송 방식 Integration (연동): 서로 다른 시스템을 하나로 묶어 데이터를 주고받게 만드는 일
Q335 갑자기 손님이 몰려 서버(EC2) 수백 대를 동시에 켜야 하는데, 서버가 구동되는 초기화 시간이 너무 길어서 고민입니다. 대기 시간을 획기적으로 줄이는 방법은? 서버 이미지를 새로 만들 때 특수 명령어를 써서 최적화합니다. 서버의 원본 파일(EBS 스냅샷)에 '빠른 복원(Fast Snapshot Restore)' 옵션을 겁니다. Data Lifecycle Manager를 통해 서버 복제 주기를 짧게 가져갑니다. 백업 계획을 수정하여 서버가 몰리기 직전까지만 백업하고 나머지는 생략합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 서버 수백 대가 한꺼번에 켜질 때 병목이 생기는 이유는 서버의 영혼과 같은 '스냅샷'에서 데이터를 읽어오는 속도 때문입니다. '빠른 스냅샷 복원(FSR)' 기능을 켜두면, AWS가 미리 데이터를 따뜻하게 데워두어(Pre-warming) 서버가 요청하는 즉시 최고 속도로 부딩을 완료할 수 있게 도와줍니다. 다른 옵션인 A는 효과가 미비하며, C와 D는 서버의 생성 속도 자체를 개선하는 직접적인 해결책은 아닙니다. 💡 이 문제의 핵심 용어 Fast Snapshot Restore (FSR): EBS 스냅샷에서 데이터를 읽어올 때 초기 지연 시간 없이 즉시 최대 성능을 내게 해주는 기능 Provisioning (프로비저닝): 필요한 자원을 준비해서 배치하고 바로 쓸 수 있게 만드는 일 EBS Snapshot: EBS 하드디스크의 특정 시점 데이터를 사진 찍듯 저장해둔 복사 원본
Q336 보안 규정상 데이터베이스 비밀번호를 암호화해서 보관하고 14일마다 자동으로 바꿔줘야 합니다. 관리자가 손대지 않고 자동으로 처리하는 방법은? AWS Secrets Manager를 사용하고 14일 주기로 자동 교체(Rotation)를 설정합니다. Parameter Store에 비밀번호를 넣고 14일마다 Lambda를 실행해 수동으로 바꿉니다. EFS라는 공유 하드에 비밀번호를 적어두고 프로그램이 알아서 읽어가게 합니다. S3 버킷에 암호 파일을 두고 14일마다 새 파일을 업로드하는 스크립트를 짭니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 비밀번호 같은 민감한 정보의 관리와 자동 교체는 Secrets Manager가 전문입니다. '14일마다 비번을 바꿔줘'라고 설정만 해두면 자기가 알아서 DB에 접속해 비번을 바꾸고, 앱들에게도 새 비번을 알려줍니다. 관리자가 매번 비번을 바꾸느라 고생하거나 까먹을 일이 전혀 없는 아주 똑똑한 보안 도구입니다. 다른 옵션인 B는 '수동'이 섞여 있어 탈락이며, C나 D는 비밀번호를 사실상 평문으로 방치하는 격이라 보안 규정에 맞지 않습니다. 💡 이 문제의 핵심 용어 AWS Secrets Manager: 데이터베이스 로그인 정보 등 중요한 기밀을 암호화해 보관하고 주기적으로 바꿔주는 서비스 Rotation (교체): 보안을 위해 주기적으로 비밀번호나 암호 키를 새로운 것으로 변경하는 작업 Parameter Store: 설정값이나 작은 비밀번호 정보를 저장하는 서비스지만 '자동 교체' 기능은 Secrets Manager가 우위에 있음
Q337 RDS MySQL을 굴리는데 읽기 전용 복제본(Read Replica)의 데이터가 메인 DB보다 1초 이상 늦게 반영되어 고민입니다. 코드 수정을 최소화하며 이 지연을 없애는 방법은? 메인 DB와 복제본을 모두 Amazon Aurora MySQL로 이사합니다. DB 앞단에 캐시 서버(ElastiCache)를 두고 모든 조회 작업을 거기로 넘깁니다. 서버를 고성능 컴퓨팅용(C5 시리즈)으로 전부 갈아엎고 직접 설치해 씁니다. NoSQL인 DynamoDB로 데이터를 전부 옮겨서 복사 속도를 높입니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 일반 MySQL의 복제 방식은 메인 DB가 바쁘면 복제본이 뒤처질 수밖에 없는 구조적 한계가 있습니다. 하지만 Aurora는 공유 저장소를 쓰기 때문에 메인 DB에 자료가 쓰이는 즉시 복제본에서도 거의 동시에 볼 수 있습니다. 코드 몇 줄 고치는 것보다 데이터베이스 엔진 자체를 클라우드에 최적화된 Aurora로 바꾸는 게 가장 빠르고 확실한 해결책입니다. 다른 옵션인 B는 캐싱 코드를 다 짜야 해서 '최소한의 수정'에 어긋나며, C와 D는 인프라 체계를 완전히 뒤흔드는 너무 큰 작업입니다. 💡 이 문제의 핵심 용어 Replication Lag (복제 지연): 기본 데이터베이스에 입력된 정보가 보조 데이터베이스(복제본)에 반영될 때까지 걸리는 시간 Amazon Aurora: AWS가 클라우드 환경에 맞춰 새롭게 설계한 고성능 관계형 데이터베이스 엔진 Shared Storage: 여러 DB 서버들이 하나의 거대한 데이터 저장 공간을 공동으로 사용하는 기술
Q338 SaaS 플랫폼을 운영 중인데, 지진이나 정전 같은 대형 사고에 대비해 다른 나라 리전으로 데이터를 복사해두려 합니다. 가장 비용 효율적인 Aurora 설정은? MySQL의 로그 복제 기능을 써서 옆 나라 서버로 실시간 전송합니다. 데이터 복제를 위해 다른 리전에도 크고 비싼 상시 가동 DB를 띄워둡니다. DMS 서비스를 이용해 데이터를 실시간으로 국외 리전으로 쏴줍니다. Aurora '글로벌 데이터베이스' 기능을 켜고 타 지역에 보조 인스턴스를 하나 둡니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 여러 지역에 데이터를 서비스하고 재난에 대비하는 가장 강력한 기능은 'Aurora Global Database'입니다. 메인 지역에서 일어나는 모든 변화를 광속으로 해외 지역까지 보내주며, 평소에는 해당 지역 사용자를 위한 읽기 전용 서버로 쓰다가 큰 사고가 나면 그 지역을 메인으로 승격시켜 즉시 서비스를 재개할 수 있게 도와줍니다. 다른 옵션인 A나 C는 속도나 관리 면에서 Aurora 기본 기능인 D를 따라오지 못하며, B는 평소에 노는 서버 비용이 부담입니다. 💡 이 문제의 핵심 용어 Aurora Global Database: 하나의 데이터베이스를 전 세계 여러 리전에 걸쳐 운영하며 빠르게 데이터를 복제하는 기술 Global Replication: 서로 다른 국가나 지역에 있는 데이터 센터 간에 실시간으로 데이터를 옮기는 일 Primary Region: 회사의 본진이 되는 주된 서비스 운영 지역
Q339 프로그램 코드 안에 DB 아이디와 비밀번호가 그대로 적혀 있어 보안팀이 난리가 났습니다. 최소한의 노력으로 가장 안전하게 비밀번호를 관리하는 방법은? KMS로 암호 키를 만들어 코드 안에 있는 비번을 암호화해 둡니다. Secrets Manager에 비번을 맡기고, 앱이 필요할 때마다 거기서 비번을 요청해 쓰게 합니다. 비번을 Secrets Manager에 넣고 14일마다 바꿀 수 있게 예약 설정까지 마칩니다. Parameter Store에 암호를 넣고 관리자가 매월 수동으로 바꾸는 일정을 짭니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 코드 안에 비번을 적어두는 건 현관문 비밀번호를 대문에 적어둔 것과 같습니다. Secrets Manager라는 금고에 비번을 보관하고, 프로그램(앱)이 실행될 때만 금고에서 비번을 받아오게 바꾸면 코드가 유출되어도 안심입니다. 여기에 주기적으로 비번을 바꿔주는 자동 교체 설정까지 더하면 완벽한 보안 시스템이 완성됩니다. 다른 옵션인 A는 여전히 코드에 암호화된 값이 흔적으로 남고, B는 자동 교체 기능까지 활용하는 C보다는 보안 등급이 낮습니다. D는 사람이 직접 하는 방식이라 실수의 위험이 큽니다. 💡 이 문제의 핵심 용어 Hardcoding (하드코딩): 아이디, 비번 같은 기밀 정보를 소스 코드 안에 직접 입력해두는 위험한 습관 AWS Secrets Manager: 비밀번호, API 키 등을 암호화해 보관하고 자동으로 바꿔주는 전문 보안 서비스 AWS KMS: 데이터 암호화에 필요한 나만의 비밀 열쇠를 만들고 관리하는 곳
Q340 웹사이트가 해커들의 SQL 주입(SQL Injection) 공격에 취약하다는 진단이 나왔습니다. 데이터베이스 속의 정보를 훔쳐가려는 시도를 문 앞에서 막으려면? 로드 밸런서(ALB) 앞에 AWS WAF를 설치하고 공격 차단 규칙을 적용합니다. 로드 밸런서의 설정에서 수상한 요청에 '고정 응답'을 보내게 규칙을 짭니다. 비싼 유료 보안 서비스인 AWS Shield Advanced에 가입하여 전담팀의 도움을 받습니다. Amazon Inspector라는 진단 도구를 켜서 매일 공격 시도를 탐지하고 차단합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 웹 서비스의 비정상적인 요청(SQL 공격 등)을 골라내는 필터는 WAF(웹 방화벽)입니다. 로드 밸런서 앞에 WAF라는 촘촘한 그물망을 쳐두면, 해커가 교묘하게 보낸 공격 신호를 미리 알아채고 서버에 닿기도 전에 컷트해주므로 홈페이지와 데이터를 안전하게 지킬 수 있습니다. 다른 옵션인 C는 디도스(대량 트래픽) 방어 전용이며, D인 Inspector는 서버 내부 설정 진단용이라 실시간 들어오는 독침(SQL 공격)을 막아내기엔 부적절합니다. 💡 이 문제의 핵심 용어 AWS WAF (Web Application Firewall): 웹 서버로 들어오는 HTTP 요청을 분석해 해킹 수법을 걸러내는 수문장 SQL Injection: 입력 창에 악의적인 SQL 코드를 넣어 데이터베이스를 휘젓는 악랄한 공격 방식 ALB (Application Load Balancer): 손님들이 들어오는 입구에서 트래픽을 여러 서버로 공평하게 나눠주는 부하 분산 장치
Q341 데이터 레이크(S3)와 운영 DB(Aurora)의 데이터를 결합해 시각화 보고서를 만들려 합니다. 마케팅팀에게는 특정 열(Column)만 보여주는 보안 정책을 가장 쉽게 적용하는 방법은? EMR 분석 서버를 돌려 필요한 데이터만 골라 별도의 결과 보고서를 만듭니다. 데이터를 S3로 다시 이사하고 복잡한 IAM 보안 정책으로 열 접근 권한을 막습니다. S3의 뷰(View) 기능을 활용해 마케팅팀용 가상 테이블을 여러 개 만듭니다. Lake Formation을 사용하여 열 단위 권한을 주고, 분석 도구(QuickSight)에서 Athena를 통해 봅니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 수많은 데이터의 접근 권한을 '이 사람은 주민번호는 보지 마', '이 사람은 이름만 봐' 식으로 세밀하게 관리하는 사령탑이 바로 Lake Formation입니다. 여기서 권한을 한 번만 정해두면, 분석 도구인 QuickSight가 데이터를 가져올 때 규정대로 마스킹 처리된 안전한 데이터만 보여주므로 보안 사고를 예방할 수 있습니다. 다른 옵션인 A나 B는 관리 포인트가 너무 많고 복잡하며, C만으로는 데이터 레이크 전체에 대한 체계적인 보안 관리를 달성하기 어렵습니다. 💡 이 문제의 핵심 용어 AWS Lake Formation: 데이터 레이크 구축을 돕고 통합된 보안 권한을 중앙에서 관리하는 서비스 Column-level Security: 데이터 표에서 특정 항목(열)만 보이지 않게 가리거나 접근을 제한하는 보안 기술 Data Lake: 방대한 양의 가공되지 않은 데이터를 한곳에 모아둔 거대한 저장 창고
Q342 매주 정기적으로 실행되는 거대 작업(배치)이 있습니다. 작업 시작 30분 전에는 꼭 서버가 미리 충원되어 있어야 하는데, 엔지니어가 매번 수동으로 대수를 바꾸지 않는 똑똑한 자동화는? CPU가 60%를 넘을 때만 서버를 늘리는 기본 동적 정책을 유지합니다. 매주 정해진 시간 30분 전부터 서버를 늘리게 예약(Scheduled) 정책을 세웁니다. AWS의 인공지능이 과거 기록을 보고 미리 서버를 준비하는 '예측(Predictive)' 정책을 씁니다. CPU가 60%가 되면 Lambda가 깨어나서 서버 사양을 높이게 설정합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. '예측 조정(Predictive Scaling)'은 시스템이 스스로 공부하는 방식입니다. 지난 몇 주간의 데이터를 보고 '아, 매주 이 시간에는 일이 몰리는구나'라고 파악해서, 사람이 시키지 않아도 30분 전에 미리 충분한 서버 대수를 준비해 둡니다. 관리자의 손길 없이도 성능 저하를 완벽히 막아내는 가장 세련된 자동화입니다. 다른 옵션인 B(예약)도 가능은 하지만, 매주 상황이 조금씩 변할 때 능동적으로 대처하는 C가 훨씬 고수 수준의 해결책입니다. A는 일이 터진 뒤에야 서버를 늘리기 때문에 30분 전 충원 조건을 맞추지 못합니다. 💡 이 문제의 핵심 용어 Predictive Scaling: 머신러닝이 과거 기록을 학습해 미래 부하를 예측하고 미리 서버를 늘려주는 기능 Target Tracking Scaling: 특정 수치(예: CPU 50%)를 목표로 정해두면 오토 스케일링이 알아서 조절하는 방식 Machine Learning (기계 학습): 컴퓨터가 데이터를 통해 스스로 학습하고 예측하는 똑똑한 기술
Q343 재해 복구(DR)를 위해 사내 서버의 MySQL 데이터를 해외 리전까지 실시간으로 복제하고 싶습니다. 운영 수고가 가장 적으면서 확실한 해결책은? 두 나라에 리눅스 서버들을 세우고 직접 MySQL 복제 설정을 수동으로 관리합니다. RDS MySQL '다중 AZ' 기능을 켜고 다른 나라 리전에 읽기 복제본을 하나 만듭니다. Aurora '글로벌 데이터베이스'로 이사하여 해외 리전까지 광속 복제 시스템을 씁니다. S3에 백업본을 계속 쌓아두고 사고 나면 해외 리전에서 그 파일로 DB를 복구합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 운영 오버헤드를 줄이는 게 핵심이라면 Aurora Global Database가 압권입니다. 내가 일일이 설정을 고치거나 지켜보지 않아도, AWS가 전용 통로를 통해 다른 리전까지 데이터를 거의 즉시 복제해 줍니다. 나중에 주 지역이 마비되어도 클릭 한 번이면 해외 리전 서버가 즉시 대장(Primary) 역할을 이어받으니 재해 복구용으로 최상입니다. 다른 옵션인 B도 훌륭하지만, 재난 시 복구 속도와 복제 성능 면에서 Aurora 전용 기능인 C가 훨씬 강력합니다. A는 사람이 직접 할 일이 너무 많습니다. 💡 이 문제의 핵심 용어 Aurora Global Database: 전 세계 여러 AWS 리전에 걸쳐 데이터베이스 리플리케이션을 자동으로 처리하는 글로벌 확장 기능 Disaster Recovery (재해 복구): 자연재해 등으로 시스템이 멈췄을 때 빠르게 살려내는 계획 Primary Instance: 데이터를 쓰고 읽는 메인 역할을 하는 대장 DB 서버
Q344 SQS 대기열을 쓰는데 메시지 크기가 256KB를 넘어가면 처리를 못 합니다. 가끔 들어오는 50MB짜리 큰 메시지도 소화할 수 있게 코드를 최소한으로 고치는 요령은? Java용 SQS 확장 라이브러리를 써서 본체는 S3에 담고 주소만 주고받게 합니다. SQS 대신 대용량 처리에 특화된 EventBridge로 시스템 전체를 갈아엎습니다. AWS 고객센터에 전화해서 SQS의 기본 메시지 용량 제한을 50MB로 풀어달라고 요청합니다. 거대 파일을 담기 위해 EFS(공유 하드)를 연결하고 파일 위치를 메시지에 적습니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. SQS는 가벼운 메시지 전용이라 큰 파일은 직접 못 담습니다. 하지만 'SQS Extended Client Library'라는 가방을 쓰면 해결됩니다. 이 가방은 큰 데이터가 들어오면 '알아서' S3라는 넓은 창고에 짐을 맡기고, SQS에게는 'S3 어디에 짐을 뒀다'는 작은 쪽지만 전달합니다. 받는 쪽도 가방을 열면 알아서 S3에서 짐을 꺼내 오니 코드 수정도 아주 적고 편리합니다. 다른 옵션인 C는 기술적으로 불가능하며, B는 시스템 설계 자체를 다 바꿔야 해서 일이 너무 커집니다. 💡 이 문제의 핵심 용어 SQS Extended Client Library: 메시지 용량 제한을 우회하기 위해 본문은 S3에 저장하고 주소만 전달하는 스마트 라이브러리 Payload: 전달되는 메시지 안에 들어있는 실제 알맹이 데이터 Threshold (임계값): 기준이 되는 수치로, 여기서는 SQS가 담을 수 있는 최대 용량인 256KB를 의미
Q345 사용자가 100명 미만인 웹 서비스에서 전 세계 어디서든 아주 빠른 로그인 속도를 보장하고 싶습니다. 서버 관리 없는 '서버리스' 방식으로 가장 좋은 조합은? Cognito로 로그인하고, 사용자와 가장 가까운 에지에서 Lambda@Edge가 직접 인증합니다. 사내 Active Directory를 연결하고, 로드 밸런서(ALB)를 통해 전 세계로 서비스합니다. Cognito와 일반 Lambda를 엮고 S3 전송 가속화 기능으로 속도를 높입니다. 전통적인 AD 시스템과 Lambda@Edge를 엮어 웹 전용 플랫폼인 Elastic Beanstalk에 올립니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 속도가 생명이라면 데이터 센터까지 갈 필요도 없이 사용자 근처의 '에지(Edge)'에서 일을 끝내면 됩니다. Cognito라는 신분증 확인소를 쓰고, 전 세계 배달점(CloudFront)에서 바로 실행되는 Lambda@Edge가 '이 사람 로그인됐네!'라고 확인해 주면, 지구 반반편 사용자도 내 집 앞 서버처럼 빠른 속도로 서비스를 이용할 수 있습니다. 다른 옵션인 B와 D는 물리 서버가 개입되어 '서버리스'가 아니며, C는 로그인 처리 속도 자체를 획기적으로 줄여주지는 못합니다. 💡 이 문제의 핵심 용어 Lambda@Edge: 사용자에게 가장 가까운 전 세계 에지 서버에서 코드를 즉석 실행해 응답 속도를 광속으로 만드는 기술 Amazon Cognito: 사용자 가입, 로그인, 권한 부여를 한 번에 해결해주는 보안 로그인 서비스 Edge Location: 메인 데이터 센터가 아닌, 사용자 물리 위치와 가까운 곳에 위치한 전 세계 보조 서버 거점
Q346 사무실의 낡은 대형 하드(NAS)를 처분하고 S3로 이사하려 합니다. 직원들은 평소 쓰던 공유 폴더 느낌 그대로 파일을 쓰고 싶은데, 어떤 게이트웨이를 설치해야 할까요? EBS 하드디스크를 클라우드 볼륨으로 만들어주는 볼륨 게이트웨이 오래된 백업 테이프를 클라우드로 옮겨주는 테이프 게이트웨이 FSx 전용 길을 뚫어주는 FSx 파일 게이트웨이 S3 버킷을 사내 공유 폴더(SMB/NFS)처럼 보이게 해주는 S3 파일 게이트웨이 정답 확인 및 해설 📖 해설 정답은 D입니다. 직원들의 습관은 바꾸지 않으면서 저장소만 클라우드로 바꾸는 마법사가 S3 파일 게이트웨이입니다. 사무실 장비에 이 게이트웨이를 설치하면, 직원들 컴퓨터에는 똑같은 공유 폴더로 보이지만 실제론 모든 파일이 S3라는 거대 창고에 안전하게 쌓입니다. 낡은 장비를 살 필요도 없고 관리도 말도 안 되게 편해집니다. 다른 옵션인 A나 B는 용도가 전혀 다르며, C는 고성능 전용 파일 시스템용이라 일반적인 사무용 NAS 대체용으로는 S3 기반인 D가 가장 경제적입니다. 💡 이 문제의 핵심 용어 Amazon S3 File Gateway: 사무실 네트워크와 S3를 연결해 마치 내부에 거대한 하드디스크가 있는 것처럼 속여주는 서비스 Hybrid Storage: 사내 내부망과 클라우드 저장소를 하나로 묶어 쓰는 혼합 저장 방식 NAS (Network Attached Storage): 네트워크를 통해 여러 사람이 같이 쓰는 대형 외장 하드 장비
Q347 향후 3년간 서버 비용을 최대한 아끼고 싶지만, 중간에 서버 사양을 바꿀 수도 있어야 합니다. 가장 유연하게 할인을 받을 수 있는 계획은 무엇입니까? 컴퓨팅 절감 플랜 (Compute Savings Plan) EC2 인스턴스 절감 계획 (EC2 Instance Savings Plan) 영역 예약 인스턴스 (Zonal RI) 표준 예약 인스턴스 (Standard RI) 정답 확인 및 해설 📖 해설 정답은 A입니다. 가장 유연한 할인 패키지는 'Compute Savings Plan'입니다. 특정 서버 사양에 묶이지 않고 '3년 동안 이만큼의 서버 파워를 쓸게요'라고 약속만 하면, 나중에 서버 종류를 바꾸든 다른 나라(리전)로 이사를 가든 무조건 할인을 해줍니다. 비즈니스가 어떻게 변할지 모르는 상황에서는 이 방식이 가장 안전하고 효과적인 비용 절약법입니다. 다른 옵션인 B, C, D는 특정 지역이나 서버 제품군에 고정되어야 하는 경우가 많아 유연성 면에서 A보다 한참 떨어집니다. 💡 이 문제의 핵심 용어 Compute Savings Plans: 나중에 서버 모델이나 지역을 바꿔도 할인을 계속 유지해주는 가장 자유로운 요금제 Financial Optimization (재무 최적화): 성능은 그대로 가져가되 클라우드 요금은 가장 낮게 깎는 노하우 Region (리전): AWS가 서비스를 제공하는 지리적인 전 세계 각 지역
Q348 수많은 사용자의 데이터가 DynamoDB에 쌓이고 있습니다. 사용량은 늘 일정하고 예측 가능한데, 예산을 확고하게 지키면서 비용을 가장 아끼는 설정은? 자주 안 쓰는 모드(IA)와 프로비저닝 방식을 섞고 용량을 미리 예약합니다. 프로비저닝 모드를 선택하고, 예상 사용량만큼의 읽기/쓰기 용량(RCU/WCU)을 지정합니다. 온디맨드 모드를 선택하고, 갑작스러운 변화에 대비해 용량을 아주 높게 잡습니다. 온디맨드 모드에 예약 용량 옵션을 더해 최대한의 성능을 뽑아냅니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 사용량이 일정하다면 '정액제(Provisioned Mode)'가 답입니다. '나는 초당 100건 정도만 처리하면 돼'라고 미리 범위를 딱 정해두면, 쓴 만큼 내는 종량제(On-demand)보다 훨씬 저렴한 고정 가격에 서비스를 누릴 수 있습니다. 가계부 쓰듯 딱 정해진 예산 안에서 시스템을 알뜰하게 운영하기에 최적의 선택입니다. 다른 옵션인 C나 D(온디맨드)는 사용량이 튈 때 대비는 좋지만, 일정하게 계속 쓸 때는 정액제 방식인 B보다 훨씬 많은 비용이 청구됩니다. 💡 이 문제의 핵심 용어 Provisioned Mode: 사용자가 처리할 데이터 양을 미리 약속하고 그만큼의 비용만 싸게 지불하는 요금 방식 RCU (Read Capacity Unit): DynamoDB에서 데이터를 1초에 얼마나 읽어낼 수 있는지 결정하는 능력 단위 WCU (Write Capacity Unit): DynamoDB에서 데이터를 1초에 얼마나 써넣을 수 있는지 결정하는 능력 단위
Q349 아시아 리전의 Aurora DB에 기밀 자료가 있는데, 인수 합병된 새 회사의 AWS 계정과 이 백업본(스냅샷)을 안전하게 공유해야 합니다. 설계자가 할 일은? 암호화되지 않은 새 스냅샷으로 복사본을 만들어 상대방 계정에 공유합니다. 스냅샷을 만들고, 암호 키 금고(KMS) 설정에 상대방 계정 번호를 넣어 문을 열어줍니다. AWS에서 관리해주는 기본 키(Managed Key)로 스냅샷을 다시 찍어 공유합니다. 스냅샷 파일을 내려받아 S3에 올린 뒤 상대방이 받아가게 정책을 수정합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 암호화된 기밀 자료를 공유할 때는 자료 자체뿐만 아니라 '열쇠'도 같이 빌려줘야 합니다. 내가 쓰는 암호 키(KMS) 관리 화면에 들어가서 상대방의 AWS 계정 번호를 '신뢰할 수 있는 사용자'로 추가해 주면, 상대방도 자기네 동네에서 내 스냅샷을 열어볼 수 있는 합법적인 권한을 갖게 되어 안전하게 인수인계를 마칠 수 있습니다. 다른 옵션인 A나 C는 보안 체계를 파괴하거나 규정에 어긋나는 방식이며, D는 공유 과정이 너무 복잡하고 비효율적입니다. 💡 이 문제의 핵심 용어 Snapshot Sharing: 데이터베이스의 과거 특정 상태를 담은 복사본을 다른 사람에게 안전하게 건네주는 기능 KMS Customer Managed Key: AWS가 주는 기본 키가 아닌, 내가 직접 만들어서 접근 권한을 세밀하게 조절할 수 있는 나만의 열쇠 Cross-account Sharing: 서로 다른 AWS 계정끼리 자원을 공유하는 보안 기술
Q350 RDS SQL Server를 쓰는데, 일 년에 몇 번 큰 보고서를 돌릴 때마다 전체 시스템이 느려져서 고객들이 불편해합니다. 고가용성을 챙기면서 보고서 성능도 좋게 하려면? (2개 선택) 단일 서버(Single-AZ)를 여러 구역에 걸친 다중 서버(Multi-AZ)로 업그레이드합니다. 현재 시스템을 스냅샷으로 찍어 다른 구역에 수동으로 복원해서 보고서를 돌립니다. 옆 동네 구역에 '읽기 전용 복제본'을 만들고, 보고서 쿼리는 무조건 거기서만 돌립니다. 기능 제약이 적은 RDS Custom으로 이사해서 직접 튜닝을 수행합니다. 보고서 요청이 몰릴 때 차단해주는 RDS 프록시 기능을 도입합니다. 정답 확인 및 해설 📖 해설 정답은 A와 C입니다. 시스템이 멈추지 않으려면 두 개 이상의 구역(AZ)에 장비를 배치하는 게 필수(A)입니다. 또한, 무거운 보고서 작업이 메인 DB의 기력을 뺏지 않도록 옆 동네에 '읽기 전용 복제본(C)'이라는 보조 비서를 하나 두세요. 이제 보고서 직원은 보조 비서만 괴롭히고, 메인 DB는 고객들의 결제를 처리하는 데만 집중할 수 있어 성능과 안정성을 모두 잡을 수 있습니다. 다른 옵션인 B는 그때그때 수동이라 번거롭고, D나 E는 보고서로 인한 전체 부하 지연 문제를 근본적으로 해결해주지는 못합니다. 💡 이 문제의 핵심 용어 Multi-AZ (다중 가용 영역): 서로 다른 데이터 센터에 장비를 두어 한곳이 망가져도 서비스가 유지되게 만드는 기술 Read Replica (읽기 전용 복제본): 메인 DB의 최신 정보를 실시간으로 복사해 오직 조회(읽기) 작업만 전문으로 돕는 도우미 서버 Workload Isolation: 서로 다른 성격의 작업들을 분리된 자원에서 처리하게 만들어 서로 간섭을 없애는 설계