Q401 기존 온프레미스 앱을 AWS로 옮기려 합니다. 최근 정전으로 DB 서버가 죽어 데이터 손실이 발생했었는데, 이를 방지하기 위해 '단일 실패 지점(SPOF)'을 없애고 사용자 요구에 맞춰 자동 확장되는 구조를 만들고 싶습니다. 가장 적합한 구성은? 여러 가용 영역(AZ)에 EC2 인스턴스를 Auto Scaling 그룹으로 배치하고, RDS를 다중 AZ 구성으로 사용합니다. 단일 가용 영역의 Auto Scaling 그룹에 EC2를 배치하고, 그 안에 DB까지 직접 설치해 자동 복구를 켭니다. 여러 가용 영역에 EC2를 배치하되, RDS는 단일 가용 영역에서 읽기 전용 복제본만 하나 둡니다. 여러 가용 영역에 EC2를 배치하고, 여러 EC2에 직접 DB를 깔아 EBS 다중 연결로 스토리지를 공유합니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 장애에 강한 시스템을 만들려면 핵심 서비스들을 여러 데이터 센터(가용 영역, AZ)에 나눠서 배포해야 합니다. 웹 서버는 Auto Scaling 그룹으로 묶어 여러 AZ에 흩뿌리고, 데이터베이스(RDS)는 '다중 AZ' 설정을 켜서 한쪽이 죽더라도 다른 쪽으로 즉시 갈아탈 수 있게(Failover) 준비하는 것이 정답입니다. 이 조합이 고가용성과 확장성을 동시에 잡는 가장 표준적인 설계입니다. 다른 옵션인 B와 C는 특정 가용 영역에 장애가 발생했을 때 서비스가 멈출 위험(SPOF)이 여전히 존재하며, D는 공유 스토리지 설정이 매우 복잡하고 관리 부담이 커서 권장되지 않습니다. 💡 이 문제의 핵심 용어 SPOF (Single Point of Failure): 그 부분이 고장 나면 전체 시스템이 멈춰버리는 치명적인 취약 지점 Multi-AZ (다중 가용 영역): 지리적으로 떨어진 두 곳 이상의 데이터 센터에 리소스를 동시에 운영하여 안정성을 높이는 방식 Auto Scaling: 사용자 트래픽에 맞춰 서버 대수를 자동으로 늘리고 줄여주는 기능
Q402 Kinesis Data Streams로 대량의 실시간 데이터를 받고 있습니다. 격일로 한 번씩 데이터를 가져와 S3에 기록하는데, 확인해보니 S3에 들어온 데이터가 일부 유실되었습니다. 가장 먼저 확인하고 수정할 설정은? Kinesis Data Streams의 데이터 보존 기간(Retention Period) 설정을 늘립니다. Kinesis Producer Library(KPL)를 사용해서 데이터를 더 정교하게 전송하도록 바꿉니다. Kinesis의 처리량을 높이기 위해 샤드(Shard)의 개수를 더 많이 늘립니다. S3 버킷의 버전 관리(Versioning) 기능을 켜서 모든 객체의 기록을 남깁니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. Kinesis Data Streams의 기본 데이터 보관 기간은 고작 24시간입니다. 그런데 데이터를 '격일(48시간 간격)'로 가져가려고 하니, 뒤늦게 가보면 이미 데이터가 유통기한이 지나 삭제된 상태인 거죠. 보존 기간을 최소 48시간 이상(최대 365일까지 가능)으로 늘려주기만 하면 데이터 유실 없이 모든 내용을 안전하게 챙겨올 수 있습니다. 다른 옵션인 C(샤드 증설)는 데이터가 너무 많이 들어와서 막힐 때 쓰는 방법이지 기간 만료로 인한 유실과는 상관없고, D(버전 관리)는 덮어쓰기 방지용이지 데이터 수집 단계의 유실을 막아주진 못합니다. 💡 이 문제의 핵심 용어 Kinesis Data Streams: 대규모 실시간 스트리밍 데이터를 수집하고 처리하는 통로 역할의 서비스 Retention Period (보존 기간): 데이터가 시스템에 남아있는 기한. 이 기한이 지나면 소비자(Consumer)가 읽기 전에도 삭제됨 Shard (샤드): 데이터 스트림 내의 용량 단위로, 샤드가 많을수록 더 많은 데이터를 한꺼번에 처리 가능
Q403 Lambda 함수를 써서 파일을 S3에 업로드하는 앱을 만들고 있습니다. 이 함수가 S3에 접근할 수 있게 정당한 권한을 부여하는 가장 올바른 보안 절차는? Lambda 함수의 리소스 정책(Resource-based Policy)에 접근 권한을 직접 써넣습니다. 기존 IAM 사용자의 아이디와 비밀번호를 Lambda 코드 안에 상수로 심어둡니다. 새 IAM 사용자를 만들고 그 사용자의 인증 키(Access Key)를 Lambda에서 사용합니다. S3 업로드 전용 IAM 역할을 만들고, 이 역할을 Lambda 함수에 직접 할당합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. AWS 서비스(Lambda 등)가 다른 서비스(S3 등)를 대신 조종하게 할 때는 아이디/비밀번호를 주는 게 아니라 '역할(Role)'을 맡기는 게 정석입니다. 'S3 쓰기 권한이 든 역할'을 만들어서 Lambda에게 입혀주면, Lambda는 별도의 키 관리 없이도 안전하게 신분을 증명하고 파일을 올릴 수 있습니다. 이것이 보안 사고를 막는 가장 안전한 신원 관리 방식입니다. 다른 옵션인 B와 C는 보안 키가 노출될 위험이 크고 관리가 매우 번거로워 절대 금지해야 할 안티 패턴입니다. 💡 이 문제의 핵심 용어 IAM Role (역할): 사람이 아닌 서비스나 기계가 일시적으로 특정 권한을 갖기 위해 사용하는 가상 신분증 IAM User (사용자): 실제 사람이 로그인할 때 쓰는 일반적인 계정 Execution Role (실행 역할): 함수나 인스턴스가 실행될 때 필요한 권한을 정의해 둔 역할
Q404 S3에 파일이 올라오면 Lambda가 즉시 처리하는 앱을 운영 중인데, 갑자기 파일이 쏟아지자 일부 처리가 누락되는 현상이 생겼습니다. 시스템의 내구성을 높이기 위한 설계적 개선안은? Lambda 함수의 실행 제한 시간(Timeout)을 최대치인 15분으로 늘려 잡습니다. S3 버킷 복제 기능을 켜서 다른 곳에 파일을 백업해두고 천천히 다시 처리합니다. 똑같은 Lambda 함수를 하나 더 만들어서 작업을 반반씩 나눠 받게 합니다. 중간에 SQS 대기열을 만들어 요청을 일단 줄 세우고, Lambda가 이를 순차적으로 가져가게 합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 일감이 갑자기 폭주해서 처리 루틴이 마비되는 걸 막으려면 '완충지대(Buffer)'가 필요합니다. S3에서 바로 Lambda를 때리는 대신, 중간에 SQS라는 대기열(Queue)을 두어 일감을 일단 차곡차곡 쌓아두세요. 그러면 Lambda는 자기가 감당할 수 있는 속도로 하나씩 안전하게 처리할 수 있고, 일감이 넘쳐도 유실 없이 나중에라도 다 끝낼 수 있습니다. 이를 '결합도 낮추기(Decoupling)'라고 합니다. 다른 옵션인 A(시간 연장)는 처리가 늦어지는 건 막아도 폭주하는 양 자체를 해결해주진 못하며, C처럼 중복 배포하는 건 관리가 훨씬 복잡해지기만 합니다. 💡 이 문제의 핵심 용어 Amazon SQS (Simple Queue Service): 메시지나 작업 요청을 임시로 보관하여 부하를 조절하고 시스템 간 연결을 유연하게 해주는 대기열 Decoupling (결합도 낮추기): 두 구성 요소가 서로의 성능이나 장애에 직접적인 영향을 주지 않도록 중간 레이어를 두어 분리하는 설계 Burst Traffic (폭주 트래픽): 평소보다 갑자기 압도적으로 많은 양의 데이터가 한꺼번에 몰리는 현상
Q405 평일 업무 시간에는 트래픽이 몰리고 주말에는 아예 안 쓰는 서비스가 있습니다. 돈을 아끼면서도 수요에 맞춰 능동적으로 움직이게 하려면 어떤 설정을 조합해야 할까요? (2개 선택) ALB의 용량 자체를 요청 속도에 따라 직접 조절되도록 AWS에 요청합니다. 인터넷 게이트웨이(IGW)의 대역폭을 평일 아침마다 자동으로 넓히게 설정합니다. 여러 리전에 서버를 뿌려두고 전 세계 부하를 자연스럽게 분산시킵니다. 대상 추적 조정 정책(Target Tracking)을 써서 평균 CPU 사용률에 맞춰 서버 수를 조절합니다. 예약된 조정(Scheduled Scaling)을 써서 주말에는 서버 수를 0으로, 평일 아침엔 원복하게 합니다. 정답 확인 및 해설 📖 해설 정답은 D와 E입니다. 두 가지 접근이 필요합니다. 먼저 주말처럼 아예 안 쓰는 시간이 확실하다면 '시계'를 맞춰두고 서버를 끄는 '예약된 조정(E)'이 비용 절감의 핵심입니다. 그리고 평일 업무 시간 중에도 트래픽이 그때그때 다를 테니, CPU 온도가 올라가면 서버를 더 늘려주는 '대상 추적 조정(D)'을 함께 쓰면 됩니다. 이 루틴을 합치면 아주 스마트하고 경제적인 인프라가 완성됩니다. 다른 옵션인 B(IGW 조절)는 관리자가 만질 수 있는 영역이 아니며, A 기능은 AWS가 뒤에서 알아서 해주는 일이지 우리가 직접 제어하는 설정이 아닙니다. 💡 이 문제의 핵심 용어 Target Tracking Scaling Policy: 특정 지표(CPU 사용률 등)를 목표치로 정해두면 자동으로 서버 대수를 밀고 당겨주는 정책 Scheduled Scaling: 날짜와 시간에 맞춰 미리 정해진 서버 대수로 변경하는 기능 CPU Utilization (CPU 사용률): 서버의 두뇌가 얼마나 바쁘게 일하고 있는지를 나타내는 수치
Q406 웹 서버는 외부 인터넷(포트 443)에서 손님을 받아야 하고, DB는 오직 우리 웹 서버(포트 3306)의 말만 들어야 합니다. 이를 보안 그룹으로 고상하게 구현하려면? (2개 선택) 네트워크 ACL에서 DB 서브넷으로 들어오는 모든 아웃바운드 트래픽을 거부합니다. DB 보안 그룹에서 퍼블릭 서브넷의 IP 주소 대역(CIDR) 전체를 허용 목록에 넣습니다. 웹 서버 보안 그룹에서 모든 주소(0.0.0.0/0)를 대상으로 443 포트를 엽니다. DB 보안 그룹 인바운드 규칙의 소스(Source)로 웹 서버의 '보안 그룹 ID'를 지정합니다. DB 보안 그룹에서 웹 서버 보안 그룹을 제외한 모든 접속을 일일이 거부 규칙으로 답니다. 정답 확인 및 해설 📖 해설 정답은 C와 D입니다. 제일 먼저 할 일은 대문을 여는 것입니다. 전 세계 고객이 접속해야 하니 웹 서버 보안 그룹은 누구나(0.0.0.0/0) 접속하게 443 포트를 엽니다(C). 그 다음이 핵심인데, DB는 웹 서버의 IP 주소를 적는 대신 웹 서버가 입고 있는 '옷(보안 그룹 ID)'을 보고 문을 열어줍니다(D). 이렇게 하면 나중에 웹 서버 대수가 늘어나거나 IP가 바뀌어도 보안 설정은 건드릴 필요 없이 항상 안전하게 유지됩니다. 다른 옵션인 B처럼 CIDR 대역을 통째로 여는 건 보안상 덜 정교하며, E인 보안 그룹은 기본적으로 '허용할 것만 적는' 방식이라 거부 규칙을 일일이 달 필요가 없습니다. 💡 이 문제의 핵심 용어 Security Group ID Reference: IP 주소 숫자를 적는 대신 특정 보안 그룹 이름을 소스로 지정해 보안을 연쇄적으로 거는 세련된 방식 CIDR Block: 특정 범위의 IP 주소 뭉치를 나타내는 표기법 Inbound Rule (인바운드 규칙): 외부에서 서버 안으로 들어오려는 트래픽에 대한 허가증
Q407 게임 앱 제작 중인데, 고성능 병렬 처리를 위해 'Lustre' 방식으로 파일을 공유해야 합니다. 서버 관리가 전혀 필요 없는 완전 관리형 서비스를 골라주세요. AWS DataSync를 써서 서버마다 파일을 동기화하는 수동 동기화 시스템을 짭니다. AWS Storage Gateway 파일 게이트웨이를 설치해서 온프레미스처럼 흉내 냅니다. Amazon EFS를 만들고 고급 설정에서 Lustre 호환 모드를 수동으로 활성화합니다. Amazon FSx for Lustre를 만들어서 서버들에 직접 연결해 사용합니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 문제에 'Lustre'라는 키워드가 등장하면 짝꿍은 단번에 Amazon FSx for Lustre를 떠올려야 합니다. 이 서비스는 슈퍼컴퓨팅이나 고성능 데이터 처리(HPC)에 쓰이는 Lustre 파일 시스템을 클릭 몇 번으로 제공하는 완전 관리형 서비스입니다. 설치나 관리 고민 없이 즉시 고성능 공유 스토리지를 확보할 수 있습니다. 다른 옵션인 C인 EFS는 일반적인 리눅스용 NFS 방식이지 Lustre를 정식 지원하는 구조는 아닙니다. 💡 이 문제의 핵심 용어 Amazon FSx for Lustre: 머신러닝이나 고성능 연산에 최적화된, 수백만 IOPS의 미친 속도를 내는 완전 관리형 파일 시스템 Lustre: 병렬 파일 시스템의 일종으로, 특히 대규모 연산이 필요한 곳에서 즐겨 쓰는 기술 Fully Managed (완전 관리형): 설치, 패치, 복제 등 귀찮은 서버 관리를 AWS가 다 해주는 서비스 형태
Q408 전 세계에 흩어진 수천 개의 기기로부터 UDP 신호를 받아 실시간 처리하는 게임을 만듭니다. 지연 시간을 극도로 낮추고 리전 장애 시 즉각 다른 곳으로 넘기고 싶습니다. 최강 리전 이동 조합은? Route 53 장애 조치 정책을 쓰고, 각 리전의 NLB가 Lambda를 호출하게 연결합니다. AWS Global Accelerator를 쓰고, 각 리전의 NLB와 ECS(Fargate)를 엔드포인트로 연결합니다. AWS Global Accelerator를 쓰고, 각 리전의 ALB와 ECS(Fargate)를 엔드포인트로 연결합니다. Route 53 장애 조치 정책을 쓰고, 각 리전의 ALB와 ECS(Fargate)를 연결해 줍니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 키워드는 세 가지입니다. 'UDP 전송', '저지연', '빠른 리전 장애 조치'. 먼저 UDP를 완벽히 소화하는 로드 밸런서는 NLB입니다(ALB는 안 됩니다). 그리고 전 세계 사용자에게 가장 가까운 통로를 열어주고 리전 장애 시 수 초 안에 다른 리전으로 트래픽을 돌려주는 '네트워크의 지름길'이 바로 Global Accelerator입니다. 이 둘의 조합만이 게임의 승부를 가르는 지연 시간을 최소화할 수 있습니다. 다른 옵션인 D(Route 53)는 DNS 정보를 갱신하는 데 시간이 걸려 장애 조치 속도가 상대적으로 느리고, C(ALB)는 UDP를 지원하지 않아 탈락입니다. 💡 이 문제의 핵심 용어 AWS Global Accelerator: AWS의 전용 네트워크 망을 타고 트래픽을 배달해 인터넷상의 병목 현상을 건너뛰게 해주는 서비스 UDP (User Datagram Protocol): 확인 절차 없이 일단 보내고 보는 빠른 통신 방식으로, 실시간 게임이나 방송에 주로 쓰임 NLB (Network Load Balancer): L4 수준에서 초당 수백만 개의 요청을 아주 적은 지연 시간으로 처리하는 고성능 부하 분산 장치
Q409 Windows 서버(IIS)들을 여러 AZ에 띄워 마이그레이션하려 합니다. 예전에 NAS에서 쓰던 파일 공유 기능을 클라우드에서도 그대로 쓰되, 가장 튼튼하고 관리하기 편한 대체재는? 파일들을 DB 형식으로 바꿔서 Amazon RDS 서버에 모조리 저장합니다. EC2 한 대에 파일 서버를 직접 구축하고 Storage Gateway로 연결합니다. Windows 파일 시스템을 완벽히 지원하는 Amazon FSx for Windows File Server를 씁니다. 리눅스용으로 유명한 Amazon EFS에 파일들을 이사시키고 마운트합니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. Windows 서버들이 함께 쓰는 파일 저장소가 필요하다면 고민할 것 없이 Amazon FSx for Windows File Server가 정답입니다. SMB 프로토콜, NTFS 권한 설정 등 기존 Windows NAS에서 쓰던 기능을 그대로 물려줄 수 있으며, 여러 가용 영역(AZ)에 걸쳐 복제되므로 내구성도 최강입니다. 윈도우 앱에게는 본가와 같은 편안함을 주는 스토리지입니다. 다른 옵션인 D(EFS)는 리눅스 전용이라 윈도우 환경과는 궁합이 맞지 않고, A(RDS)는 파일 저장용이 아닌 데이터 관리용입니다. 💡 이 문제의 핵심 용어 Amazon FSx for Windows File Server: 윈도우 서버끼리 파일을 공유할 때 쓰는, 윈도우 표준 기술 기반의 완전 관리형 저장소 NAS (Network Attached Storage): 네트워크로 연결해서 여러 명이 동시에 쓰는 외장 하드 같은 장치 SMB (Server Message Block): Windows 환경에서 파일을 주고받을 때 사용하는 표준 통신 규약
Q410 EBS 볼륨에 기록되는 모든 데이터를 '유휴 상태(저장 중)'에서 무조건 암호화해야 한다는 보안 규정이 생겼습니다. 가장 확실하게 이를 준수하는 방법은? IAM 역할에 암호화 권한을 넣어 준 뒤, 이 역할을 모든 EC2 서버에 다 붙입니다. EBS 볼륨을 처음 만들 때 '암호화됨' 옵션을 켜고 생성해서 인스턴스에 연결합니다. 서버마다 'Encrypt=True'라는 꼬리표(태그)를 달면 AWS가 알아서 암호화해 줍니다. 암호화를 강제하는 KMS 키 정책을 만들고, 전 계정의 키들이 활성화되었는지 매일 확인합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 하드디스크(EBS)의 암호화는 볼륨 자체의 속성입니다. 볼륨을 생성할 때 암호화 체크박스를 클릭하기만 하면, 그 안에 저장되는 모든 데이터는 CPU가 알아서 암호화해서 담아줍니다. 사용자나 앱은 암호화가 되는지 신경 쓸 필요조차 없는 매우 편리하고 강력한 보안 방식입니다. 다른 옵션인 A(IAM)는 사람의 권한일 뿐 볼륨의 암호화 상태를 결정하지 못하며, C(태그)는 그냥 이름표일 뿐 실제 암호화 기능을 작동시키지는 않습니다. 💡 이 문제의 핵심 용어 EBS Encryption (EBS 암호화): 데이터를 저장할 때 자동으로 암호화하고, 읽을 때 암호를 풀어주는 기능으로 성능 저하가 거의 없음 Encryption at Rest (유휴 상태 암호화): 데이터가 이동 중이 아닐 때, 즉 하드디스크나 DB에 저장되어 있을 때의 보안 상태 AWS KMS (Key Management Service): 암호화에 필요한 디지털 열쇠들을 생성하고 금고처럼 잘 보관해주는 서비스
Q411 들쭉날쭉한 방문자 패턴을 가진 MySQL 기반 앱을 AWS로 옮기려 합니다. DB 코드는 하나도 고치지 않으면서 사용자가 없을 땐 비용을 아끼고 많을 땐 알아서 커지는 솔루션은? NoSQL의 대명사인 Amazon DynamoDB로 데이터 형식을 바꿔서 운영합니다. 일반적인 MySQL 용 Amazon RDS를 쓰고, 수동으로 가끔 규모를 조절합니다. MySQL과 완벽히 호환되면서 알아서 컸다 작아졌다 하는 Aurora Serverless를 씁니다. EC2 서버를 크게 하나 띄우고 그 안에 MySQL 원격 설치 후 자동 확장 그룹에 넣습니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 사용자가 많을 땐 확 늘어나고, 새벽처럼 적을 땐 확 줄어들며(심지어 0으로), 요금도 쓴 만큼만 내는 '진정한 서버리스 DB'가 바로 Aurora Serverless입니다. MySQL과 똑같이 동작하므로 코드를 고칠 필요도 없습니다. 산발적인 사용 패턴을 가진 웹 앱에 이보다 더 경제적이고 편리한 선택지는 없습니다. 다른 옵션인 A(DynamoDB)는 SQL 쿼리를 NoSQL용으로 다 뜯어고쳐야 하는 대공사가 필요하며, B(RDS)는 늘려놓은 만큼 무조건 돈이 나가는 정액제 성격이 강합니다. 💡 이 문제의 핵심 용어 Amazon Aurora Serverless: 서버 관리나 용량 예약 없이 실제 쿼리량에 따라 DB 크기가 실시간으로 변하는 서비스 Auto Scaling (DB): 데이터베이스의 처리 능력(CPU, 메모리 등)을 자동으로 조절하는 기능 MySQL Compatibility: MySQL 기반으로 짜인 프로그램이 아무런 수정 없이 그대로 돌아갈 수 있는 성질
Q412 S3 버킷에 있는 우리 회사 문서들이 실수라도 인터넷에 공개되지 않게 '계정 전체'에 강력한 보안 못을 박고 싶습니다. 가장 안심할 수 있는 조치는? GuardDuty를 켜서 24시간 감시하고, 누가 공개로 바꾸면 람다가 출동해 다시 막게 코딩합니다. Trusted Advisor의 알림 메일을 주시하다가 공개 버킷이 발견되면 그때 가서 수동으로 고칩니다. Resource Access Manager로 공개 버킷을 계속 스캔하는 복잡한 자동화 스크립트를 돌립니다. 계정 수준에서 'S3 퍼블릭 액세스 차단' 설정을 켜고, SCP 정책으로 아무도 이 설정을 못 건드리게 묶습니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 개별 버킷 설정을 하나하나 확인하는 건 숨바꼭질과 같습니다. 대신 AWS 계정 설정 페이지에서 '모든 S3 퍼블릭 액세스 차단' 스위치를 딱 켜면, 개별 버킷이 무슨 짓을 해도 인터넷에 노출되지 않습니다. 여기에 Organizations의 SCP(서비스 제어 정책)까지 더하면, 관리자라도 이 방화벽을 멋대로 끌 수 없게 완벽한 이중 잠금이 됩니다. 다른 옵션인 A와 B는 사고가 터진 후의 뒷수습이라 불안하지만, D는 사고 자체를 원천 봉쇄하는 가장 강력한 예방책입니다. 💡 이 문제의 핵심 용어 S3 Block Public Access: 버킷이나 객체가 우발적으로 인터넷 대중에게 노출되는 것을 계정 전체 혹은 버킷 단위로 막아주는 보안 장치 SCP (Service Control Policy): AWS 조직 내의 여러 계정이 사용할 수 있는 최대 권한을 중앙에서 통제하는 마스터 권한 정책 AWS Organizations: 여러 개의 AWS 계정을 하나로 묶어 결제와 정책을 중앙 집중식으로 관리하는 서비스
Q413 쇼핑몰 앱에서 주문 확인 이메일을 보내는데 자꾸 지연이 발생합니다. 서버의 부담은 줄이면서 대량의 이메일을 안정적이고 저렴하게 보낼 전문 도구는? 이메일 발송 작업만 전담할 대형 EC2 인스턴스를 하나 더 사서 24시간 돌립니다. 클라우드용 대량 메일 발송 서비스인 Amazon SES를 통해 이메일을 보내도록 세팅합니다. 푸시 알람과 문자를 주로 보내는 Amazon SNS를 개조해서 수만 통의 메일을 보냅니다. 이메일 엔진용 EC2 그룹을 따로 만들고 Auto Scaling을 걸어 넉넉히 대기시킵니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 직접 메일 서버를 관리하는 건 스팸 처리나 발송 지연 등 지뢰밭을 걷는 것과 같습니다. Amazon SES(Simple Email Service)는 마케팅이나 확인 메일을 수백만 통씩 보낼 수 있게 설계된 전문 서비스입니다. 서버 자원을 소모하지 않고 API 호출 한 번으로 깔끔하게 메일을 보낼 수 있으며, 운영 오버헤드가 거의 제로에 가깝습니다. 다른 옵션인 A와 D는 메일 서버 운영이라는 엄청난 수고를 자처하는 일이며, C(SNS)는 공지사항 전파용이지 고도화된 이메일 마케팅이나 대용량 주문 확인용으로는 기능이 부족합니다. 💡 이 문제의 핵심 용어 Amazon SES (Simple Email Service): 안정적인 수신율과 저렴한 비용을 자랑하는 개발자용 클라우드 이메일 발송 서비스 Operational Overhead (운영 오버헤드): 서비스를 유지하기 위해 사람이 쏟아야 하는 시간, 노력, 관절의 고통 Email Latency (이메일 지연): 메일 발송 버튼을 눌렀는데 실제 고객의 편지함에 도착할 때까지 걸리는 정체 시간
Q414 매일 수백 개의 CSV 보고서 파일이 사내 서버(네트워크 공유)에 쌓입니다. 분석을 위해 이 파일들을 거의 실시간으로 S3에 저장해야 하는데, 사람의 손길을 최소화할 솔루션은? DataSync 작업을 매일 밤 11시 59분에 돌려서 하루 치 파일을 한꺼번에 긁어 옵니다. Amazon S3 파일 게이트웨이를 설치하고, 사내 서버가 여기에 직접 파일을 쓰도록 주소를 바꿉니다. DataSync API를 호출해서 파일이 생길 때마다 전송하는 복잡한 앱을 직접 개발합니다. SFTP 서버를 AWS에 띄우고, 사내 서버에서 파일이 생길 때마다 업로드하는 스크립트를 짭니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 가장 편한 방법은 기존 시스템이 '파일을 저장하는 위치'만 살짝 바꾸는 것입니다. S3 파일 게이트웨이를 설치하면 사내 서버에는 평범한 공유 폴더처럼 보이지만, 실제로는 파일이 쓰이는 즉시 S3 버킷으로 자동 복사됩니다. 스케줄링을 짤 필요도, 매일 전송 결과를 확인할 필요도 없는 '무심한' 자동화의 극치입니다. 다른 옵션인 A는 실시간성이 떨어지고, C와 D는 개발자가 매일 스크립트 장애를 관리해야 하는 운영 부담을 안겨줍니다. 💡 이 문제의 핵심 용어 S3 File Gateway: 사내 장비와 S3 사이를 잇는 다리 역할로, 로컬에는 파일 공유 폴더처럼 보여주면서 뒤로는 S3에 저장하는 장치 Near Real-time (거의 실시간): 지연이 있긴 하지만 눈 깜짝할 새나 수 초 내에 처리가 완료되는 빠른 상태 Administrative Overhead (관리 오버헤드): 시스템 운영을 위해 관리자가 수동으로 챙겨야 하는 잡다한 업무량
Q415 페타바이트(PB)급 데이터를 S3에 쌓았는데 어떤 건 자주 보고 어떤 건 안 봅니다. 패턴을 일일이 분석하기엔 양이 너무 많을 때, 알아서 비용 최적화를 해주려면? 객체의 액세스 빈도를 스스로 측정해서 저장 계층을 바꿔주는 S3 Intelligent-Tiering을 씁니다. 스토리지 분석 도구로 모든 파일을 전수 조사한 뒤 매일 수동으로 자리를 옮겨줍니다. 돈을 가장 많이 아끼기 위해 모든 파일을 무조건 S3 Glacier 깊은 보관소로 밀어 넣습니다. 가동 범위를 줄이기 위해 모든 데이터를 S3 One Zone-IA로 강제 전환하는 정책을 겁니다. 정답 확인 및 해설 📖 해설 정답은 A입니다. 수억 개의 파일 하나하나를 언제 마지막으로 봤는지 사람이 체크할 수는 없습니다. S3 Intelligent-Tiering은 인공지능 같은 똑똑한 눈으로 파일들을 지켜보다가, 한 달 동안 안 보는 파일은 저렴한 칸으로, 갑자기 보는 파일은 빠른 칸으로 알아서 옮겨줍니다. 성능 저하 없이 자동으로 돈을 아껴주는 '자율 주행' 저장소라고 보시면 됩니다. 다른 옵션인 C는 파일을 다시 꺼낼 때 수 시간이 걸려 서비스에 지장을 줄 수 있고, D는 데이터 센터가 하나뿐이라 소중한 PB급 데이터를 잃어버릴 위험이 커서 정답이 아닙니다. 💡 이 문제의 핵심 용어 S3 Intelligent-Tiering: 데이터의 접근 빈도에 따라 자동으로 가장 비용 효율적인 계층으로 이동시켜주는 스토리지 클래스 Storage Class (스토리지 계층): 저장 방식과 성능에 따라 나뉘는 요금 등급 (표준, 자주 안 함, 아카이브 등) PetaByte (PB): 약 1,024 테라바이트에 해당하는 어마어마한 데이터 양
Q416 글로벌 쇼핑몰의 페이지 로딩 속도가 너무 느려 고객들이 탈출하고 있습니다. 정적 페이지와 DB 조회 속도를 모두 잡기 위해 취할 두 가지 조치는? (2개 선택) 빅데이터 분석을 위해 Amazon Redshift 클러스터를 새로 구축합니다. 전 세계 곳곳에 콘텐츠를 미리 배달해두는 Amazon CloudFront 배포를 설정합니다. 모든 정적 콘텐츠를 S3가 아닌 동적 서버 내부 하드디스크에 직접 심습니다. RDS DB의 읽기 부하를 분산하기 위해 읽기 전용 복제본(Read Replica)을 만듭니다. 장애 대비를 위해 RDS의 다중 AZ(Multi-AZ) 설정을 켭니다. 정답 확인 및 해설 📖 해설 정답은 B와 D입니다. 느린 웹 사이트를 수술하려면 양방향 처방이 필요합니다. 먼저 겉모양(이미지, HTML 등)은 사용자 근처의 복제 서버(CloudFront)에서 빛의 속도로 쏴줘야 합니다(B). 그리고 속을 썩이는 DB 조회는 메인 서버 혼자 고생하게 두지 말고, 조회 전용 복제본(Read Replica)을 여러 대 만들어서 일감을 나눠주면(D) 로딩 속도가 비약적으로 올라갑니다. 다른 옵션인 E는 고장 났을 때를 대비하는 '안전 장치'이지 평소 속도를 빠르게 해주는 '부스터'는 아닙니다. A인 Redshift는 쇼핑몰보다는 통계 보고서용 도구입니다. 💡 이 문제의 핵심 용어 CloudFront: 전 세계 수백 개의 지점에 콘텐츠를 캐싱해두고 사용자에게 가장 가까운 곳에서 전송하는 서비스(CDN) Read Replica (읽기 복제본): 데이터베이스의 '읽기' 일감만 전담해서 처리해주는 보조 서버들 Page Load Speed (페이지 로드 속도): 웹 브라우저에 사이트가 다 뜰 때까지 걸리는 시간
Q417 VPC 프라이빗 서브넷에 있는 서버(EC2)와 Lambda가 1년 이상 동거하며 긴밀하게 대화해야 합니다. 네트워크 지연은 낮추고 비용은 최대한 아끼는 예약 조합은? EC2 전용 세이빙 플랜을 사고, Lambda는 인터넷망을 거쳐서 서버에 접속하게 둡니다. EC2 전용 세이빙 플랜을 사고, Lambda를 퍼블릭 서브넷에 배치해 서버와 통신하게 합니다. 컴퓨팅 세이빙 플랜(Compute Savings Plans)을 사고, Lambda를 서버와 같은 프라이빗 서브넷에 넣습니다. 컴퓨팅 세이빙 플랜을 사고, Lambda는 그냥 Lambda 전용 네트워크 공간에 그대로 둡니다. 정답 확인 및 해설 📖 해설 정답은 C입니다. 먼저 돈부터 아껴봅시다. 1년 이상 EC2와 Lambda를 둘 다 쓸 거라면, 둘 모두에게 할인을 적용해주는 '컴퓨팅 세이빙 플랜'이 가장 알뜰합니다. 그 다음 속도가 중요한데, Lambda를 EC2가 있는 내부 망(프라이빗 서브넷)에 직접 연결해주면 인터넷을 거치지 않고 우리끼리 전용선으로 대화하는 꼴이 되어 지연 시간이 확 줄어들고 보안도 완벽해집니다. 다른 옵션인 A와 B(EC2 전용 플랜)는 Lambda에 할인이 안 되고, D는 네트워크를 빙 돌아가야 하므로 속도와 보안 면에서 손해입니다. 💡 이 문제의 핵심 용어 Compute Savings Plans: EC2, Lambda, Fargate 등 다양한 컴퓨팅 자원을 미리 약정해서 최대 66%까지 할인받는 제도 VPC Connectivity for Lambda: Lambda 함수가 특정 VPC 내부의 자원에 안전하고 빠르게 접근할 수 있도록 네트워크를 연결하는 설정 Private Subnet (프라이빗 서브넷): 인터넷에 직접 노출되지 않는 사내 망 내부의 안전한 구역
Q418 개발 계정에 있는 우리 팀원들이 운영 계정의 S3 버킷에 있는 중요 파일을 안전하게 꺼내 보게 하고 싶습니다. '최소 권한 원칙'을 지키며 연결하는 정석 방법은? 개발 계정의 모든 사용자에게 '관리자(Admin)' 권한을 통 크게 부여합니다. 운영 계정의 '역할'을 하나 만들고, 그 역할의 신뢰 정책에 개발 계정 번호를 집어넣습니다. 운영 계정 S3의 '모든 퍼블릭 액세스'를 일시적으로 풀어서 주소만 알면 보게 합니다. 개발 계정의 모든 팀원에게 운영 계정에 로그인할 수 있는 보조 아이디를 하나씩 더 만듭니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 계정이 다른 두 서비스가 대화할 때는 '교차 계정 역할(Cross-account Role)'이 정답입니다. 운영 계정이 "어이, 개발 계정에서 온 애들 중에 이 '역할'을 맡겠다는 애들은 믿고 파일 보여줄게"라고 설정(신뢰 정책)하는 것이죠. 이렇게 하면 개별 아이디를 수만 개 만들 필요도 없고, 필요한 순간에만 잠시 권한을 빌려 쓰는 형태라 가장 보안이 튼튼합니다. 다른 옵션인 D는 관리할 아이디만 두 배로 늘어나 지옥을 맛보게 되며, A나 C는 보안 사고로 가는 지름길입니다. 💡 이 문제의 핵심 용어 Cross-account Access (교차 계정 액세스): 한 AWS 계정에 있는 리소스를 다른 계정에 있는 사용자가 안전하게 이용하게 하는 기술 Trust Policy (신뢰 정책): 이 역할을 누가(어떤 계정이나 서비스가) 대신 수행할 수 있는지 정의하는 보안 문서 IAM Role Assumption (역할 전환): 특정 보안 권한을 잠시 빌려 입는 행위
Q419 직원들이 실수로 암호화되지 않은 하드(EBS)를 생성하지 못하게 강제로 막고 싶습니다. 전체 계정에 'EBS 암호화'를 자동화하고 감시할 확실한 두 단계는? (2개 선택) EC2 대시보드의 'EBS 암호화' 설정에서 '기본적으로 암호화' 옵션을 켭니다. IAM 권한 경계를 설정해서 암호화 안 된 볼륨을 만드는 직원의 손을 일시적으로 묶습니다. SCP(서비스 제어 정책)를 만들어 '암호화=거짓'인 볼륨 생성 요청은 무조건 거절(Deny)합니다. 직원 개개인의 컴퓨터에 암호화를 강제하는 팝업 프로그램을 설치합니다. 조직 관리 계정의 '결제 설정'에서 암호화 안 된 자원은 돈을 안 주겠다고 설정합니다. 정답 확인 및 해설 📖 해설 정답은 A와 C입니다. 보안은 '기본 설정'과 '강력한 금지'가 만나야 완성됩니다. 먼저 EC2 설정에서 '새로 만드는 건 다 암호화해'라는 자동 스위치(A)를 켜두면 대부분의 실수를 막을 수 있습니다. 하지만 영리한(?) 누군가가 이를 우회할 수 있으니, Organizations 마스터키인 SCP(C)를 이용해 "암호화 안 된 건 아예 세상에 태어날 수 없어!"라고 시스템 레벨에서 거부 규칙을 박아버리면 완벽합니다. 다른 옵션인 B는 개별 관리가 너무 힘들고, E는 보안과는 상관없는 농담 같은 소리입니다. 💡 이 문제의 핵심 용어 EBS Encryption by Default: 별도로 설정하지 않아도 계정 내에서 생성되는 모든 EBS 볼륨을 자동으로 암호화하는 기능 SCP (Service Control Policy): 강력한 보안 가드레일로, 하위 계정의 사용자들이 절대 넘지 못할 선을 정하는 마스터 정책 Gurdrail (가드레일): 사용자가 실수로라도 위험한 행동을 하지 못하도록 시스템이 미리 쳐둔 안전 울타리
Q420 PostgreSQL DB를 운영 중인데, 장애 조치(Failover) 시간을 40초 이내로 단축하고 싶습니다. 비용은 아끼면서 읽기 작업은 부하를 나누고 싶을 때 최적의 고효율 구성은? 일반적인 RDS 다중 AZ를 쓰고, 읽기용 복제본을 하나 더 사서 거기로 트래픽을 보냅니다. RDS 다중 AZ '클러스터' 배포를 쓰고, 읽기 전용 복제본 2개를 수동으로 관리합니다. RDS 다중 AZ '인스턴스' 배포를 하되, 데이터가 없는 대기(Standby) 서버 주소로 쿼리를 보냅니다. 최신 'RDS 다중 AZ DB 클러스터'를 배포하고, 읽기 쿼리는 '리더 엔드포인트' 주소로 쏩니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 기존 다중 AZ는 장애 조치에 1~2분이 걸렸지만, 최신 'RDS 다중 AZ DB 클러스터' 방식은 35~40초 이내로 훨씬 빠르게 복구됩니다. 게다가 이 방식은 '대기 서버'가 노는 게 아니라 읽기 쿼리를 대신 처리해주는 일꾼으로도 뛰기 때문에 비용 효율이 아주 좋습니다. '리더 엔드포인트'라는 단일 주소만 쓰면 여러 대의 읽기 서버가 알아서 일감을 나눠 갖는 우아한 구조입니다. 다른 옵션인 A는 비용이 더 많이 들고 복구 속도가 느리며, C인 대기 인스턴스는 평소에 일을 시킬 수 없어 비효율적입니다. 💡 이 문제의 핵심 용어 Multi-AZ DB Cluster (다중 AZ DB 클러스터): 기존 다중 AZ보다 빠른 장애 복구와 동시 읽기 처리가 가능한 최신 고가용성 옵션 Reader Endpoint (리더 엔드포인트): 여러 개의 읽기 전용 복제본을 하나로 묶어주는 지능형 접속 주소 Failover (장애 조치): 메인 서버가 고장 났을 때 보조 서버가 즉시 업무를 이어받아 서비스가 안 끊기게 하는 것
Q421 서버리스 기반의 초고성능 SFTP 서비스를 구축하려 합니다. IOPS 성능이 아주 좋아야 하고, 오직 신뢰할 수 있는 특정 IP 주소들만 들어올 수 있게 보안 그룹을 걸고 싶을 때 가장 좋은 조합은? EBS 볼륨에 데이터를 담고, AWS Transfer Family를 퍼블릭 모드로 띄워 연결합니다. 무제한 확장의 EFS 볼륨을 만들고, AWS Transfer Family를 VPC 엔드포인트(보안 그룹 적용 가능) 모드로 씁니다. S3 버킷을 전용 저장소로 쓰고, AWS Transfer Family를 누구나 들어오는 퍼블릭 엔드포인트로 엽니다. S3 버킷을 쓰고, AWS Transfer Family를 내부 프라이빗 망 전용으로만 꽁꽁 숨겨 버립니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 서버리스이면서 높은 입출력 성능(IOPS)을 내려면 파일 저장소로 EFS가 제격입니다. 여기에 SFTP 문지기인 AWS Transfer Family를 'VPC 엔드포인트' 방식으로 띄우면, 우리가 평소 쓰던 '보안 그룹'을 그대로 붙여서 특정 IP만 허용하는 세밀한 방어막을 칠 수 있습니다. 성능과 보안, 관리 편의성을 한 번에 잡는 정석 아키텍처입니다. 다른 옵션인 A(EBS)는 서버리스인 Transfer Family와 직접 연결하기 까다롭고, C는 특정 IP 차단이 힘들며, D는 외부 소스의 접근을 아예 막아버려 외부 서비스용으로는 부적합합니다. 💡 이 문제의 핵심 용어 AWS Transfer Family: SFTP, FTPS, FTP 통신을 서버 관리 없이 간편하게 실현해주는 완전 관리형 서비스 Amazon EFS (Elastic File System): 용량 제한 없이 늘어나며 여러 서버와 연동 가능한 고성능 클라우드 파일 저장소 VPC Endpoint (VPC 엔드포인트): AWS 서비스들을 우리 회사 내부 전용망(VPC) 안으로 쏙 끌어와서 더 안전하게 연결하는 출입구
Q422 모델 데이터만 1GB에 달하는 기계 학습 서비스를 만듭니다. 사용량이 며칠간 0이었다가 갑자기 수천 건이 몰리는 극단적인 패턴일 때, 유연하게 대응하면서 돈 낭비 없는 설계는? NLB 뒤에 Lambda를 매달아 보지만, 1GB 데이터 로딩 속도 때문에 매번 응답이 늦어집니다. ALB와 SQS, ECS를 조합하되 App Mesh라는 복잡한 도구로 오직 대기열 크기만 봅니다. SQS 대기열을 맨 앞에 두고 Lambda를 연결한 뒤, 람다의 CPU 개수를 일일이 수동 조정합니다. SQS 대기열에 일감을 쌓고, ECS(Fargate)가 이를 가져가게 하며 대기열 양에 따라 자동 확장을 겁니다. 정답 확인 및 해설 📖 해설 정답은 D입니다. 모델이 무거워서 람다(Lambda)로 켰다 껐다 하면 초기 예열(로딩) 시간 때문에 사용자가 지칩니다. 이럴 땐 컨테이너(ECS)가 미리 준비하고 있다가 일감을 처리하는 게 나은데, 서버를 24시간 켜둘 순 없으니 SQS 대기열을 지켜보다가 "일감이 많아지면 컨테이너 수를 늘리고, 없으면 0으로 줄여!"라고 자동 확장(Auto Scaling)을 거는 방식이 최고입니다. 가성비와 성능을 모두 챙긴 똑똑한 설계입니다. 다른 옵션인 A(람다)는 콜드 스타트 문제로 고생할 확률이 높고, B와 C는 구현 난이도가 말도 안 되게 높거나 비효율적입니다. 💡 이 문제의 핵심 용어 Amazon ECS (Elastic Container Service): 컨테이너 앱을 효율적으로 배포하고 관리해주는 지휘자 서비스 Fargate (파게이트): 서버를 직접 관리하지 않고 컨테이너만 던져주면 알아서 실행해주는 서버리스 연산 엔진 Asynchronous API (비동기 API): 요청을 던져놓고 결과가 나올 때까지 기다리지 않아도 되는 소통 방식 (SQS 등을 활용)
Q423 작성한 IAM 정책(Policy) 파일이 있습니다. 이 권한 문서(정책)를 직접 갖다 붙여서(Attach) 쓸 수 있는 대상은 누구일까요? (2개 선택) 특정 직무를 수행하는 가상 신분인 '역할(Role)' 여러 사용자를 하나로 묶어 관리하는 '그룹(Group)' 회사 전체 계정을 총괄하는 '조직(Organization)' 단위 코드가 담긴 ECS 컨테이너 '리소스(Resource)' 자체 가상 서버인 EC2 인스턴스 '리소스(Resource)' 그 자체 정답 확인 및 해설 📖 해설 정답은 A와 B입니다. IAM 정책은 '누구(Principal)'에게 권한을 줄지 결정하는 문서입니다. 따라서 실제 사람(User), 사람들이 모인 팀(Group), 혹은 잠시 신분을 빌려 쓰는 대상(Role)에 직접 붙일 수 있습니다. '누구'에게 붙여야 그 주체가 비로소 일을 할 수 있게 됩니다. 다른 옵션인 D와 E인 '리소스'는 권한의 '대상'이지 권한을 '소유'하는 주체가 아닙니다. 리소스에 붙이는 건 '리소스 기반 정책'이라 부르며 일반적인 자격 증명 정책과는 문법과 붙이는 위치가 다릅니다. 💡 이 문제의 핵심 용어 Identity-based Policy (자격 증명 기반 정책): 사용자, 그룹, 역할 같은 '사람'이나 '신분'에 붙여서 권한을 주는 일반적인 방식 IAM Principal (보안 주체): 권한을 부여받아 AWS에서 행동을 취할 수 있는 객체 (사용자, 역할 등) Attach (연결/부착): 정책 문서를 특정 대상에게 할당하여 실제 효력을 발휘하게 만드는 행위
Q424 웹 서버(프런트엔드)는 24시간 내내 켜져 있어야 하고, 작업 서버(백엔드)는 업무량에 따라 잠깐씩만 돌면 됩니다. 가장 알뜰하게 돈을 들여 아키텍처를 짠다면? 모두에게 비싼 예약 인스턴스를 사고, 백엔드는 Fargate로 돌려 관리를 포기합니다. 프런트엔드는 예약 인스턴스(RI)로 할인을 듬뿍 받고, 백엔드는 언제든 끊겨도 싼 스팟 인스턴스를 씁니다. 프런트엔드는 스팟으로 최대한 아끼고, 백엔드는 죽으면 안 되니 비싼 예약 인스턴스를 삽니다. 프런트엔드에 스팟을 쓰고 백엔드엔 Fargate를 써서 극단적인 가성비를 추구합니다. 정답 확인 및 해설 📖 해설 정답은 B입니다. 안정성과 가격의 줄타기가 핵심입니다. 24시간 죽지 않고 버텨야 하는 프런트엔드는 1~3년 사용을 약속하고 대폭 할인받는 '예약 인스턴스(RI)'가 국룰입니다. 반면, 백엔드는 업무 일감이 있을 때만 잠깐 돌면 되고 작업이 도중에 끊겨도 다시 돌리면 그만이기에, AWS가 남는 서버를 헐값에 파는 '스팟 인스턴스(Spot)'를 쓰는 것이 가장 현명한 비용 절약법입니다. 다른 옵션인 C와 D는 고객이 직접 접속하는 프런트엔드에 '스팟'을 썼다가 서버가 갑자기 회수되면 사이트가 마비되므로 절대 해서는 안 될 위험한 선택입니다. 💡 이 문제의 핵심 용어 Reserved Instance (RI, 예약 인스턴스): 장기 사용을 약속하고 최대 70% 이상 요금을 할인받는 알뜰 요금제 Spot Instance (스팟 인스턴스): 경매 방식으로 남는 서버를 초저가에 빌려 쓰지만, AWS가 필요하면 2분 전 예고 후 회수해갈 수 있는 옵션 Frontend Node (프런트엔드 노드): 사용자가 직접 브라우저로 접속해서 보게 되는 웹 서버 입구
Q425 온프레미스에서 15,000 IOPS 이하의 부하를 처리 중입니다. 클라우드로 옮기면서 하드디스크 용량과는 상관없이 내가 원하는 속도(IOPS)만 딱 정해서 쓰고 싶을 때 가장 가성비 좋은 하드는? 용량을 늘려야만 속도가 빨라지는 구형 모델인 GP2 볼륨 최고의 성능을 내지만 가격이 매우 비싼 프리미엄 모델 io2 볼륨 용량, 속도(IOPS), 대역폭을 각각 따로 설정할 수 있는 최신 가성비 모델 GP3 볼륨 예전부터 고성능 전용으로 쓰였지만 관리가 까다로운 io1 볼륨 정답 확인 및 해설 📖 해설 정답은 C입니다. gp3는 혁신적인 가성비 볼륨입니다. 예전 gp2는 100GB를 사야 300 IOPS가 나오는 식으로 '용량'에 성능이 묶여 있었지만, gp3는 용량은 10GB만 사더라도 속도는 3,000 IOPS(기본)부터 16,000 IOPS까지 돈을 내고 마음대로 높일 수 있습니다. 15,000 IOPS 정도의 부하라면 비싼 io2까지 갈 필요 없이 gp3가 가장 저렴하고 똑똑한 선택입니다. 다른 옵션인 B(io2)는 성능은 최고지만 가격이 수 배 더 비싸며, A(gp2)는 원하는 성능을 얻기 위해 불필요하게 큰 용량을 사야 하므로 비효율적입니다. 💡 이 문제의 핵심 용어 EBS gp3: 성능(IOPS)과 용량을 분리해서 구매할 수 있는 최신 범용 SSD 볼륨 IOPS (Input/Output Operations Per Second): 초당 하드디스크가 읽고 쓰는 횟수로, 이 수치가 높을수록 '빠릿빠릿한' 서버가 됨 Provisioned (프로비저닝됨): 사용자가 필요한 수치를 미리 딱 정해서 예약해둔 상태