딥러닝용 P2 인스턴스 타입, 서울 리전 출시
P2 인스턴스 타입을 서울 리전에 오늘 출시하였습니다.
P2 인스턴스 타입은 8 NVIDIA
Tesla K80 Accelerators (각각 2개의 NVIDIA
GK210 GPU)을 지원합니다. 각 GPU는 12GB 메모리를 가지고 있으며 (초당 240GB 메모리 대역폭 제공) 2,496개의 병렬 코어를 지원합니다. 또한, 더블 비트 오류를 검출해서 싱글 비트 오류를 고치는 ECC 메모리 보호 기능을 지원합니다. ECC 메모리 보호 가능 및 이중 플로팅 포인트 기능을 통해 위의 다양한 요구 사항을 수용할 수 있습니다.
아래는 P2 인스턴스 타입 스펙입니다.
Instance Name | GPU Count | vCPU Count | Memory | Parallel Processing Cores |
GPU Memory |
Network Performance |
p2.xlarge | 1 | 4 | 61 GiB | 2,496 | 12 GB | High |
p2.8xlarge | 8 | 32 | 488 GiB | 19,968 | 96 GB | 10 Gigabit |
p2.16xlarge | 16 | 64 | 732 GiB | 39,936 | 192 GB | 20 Gigabit |
더 자세히 알아보기
- Amazon EC2 신규 GPU 인스턴스 타입 – P2 (16 GPU 지원)
- AWS 기반 딥러닝 AMI 및 AWS CloudFormation 템플릿 업데이트
- AWS를 통한 분산 딥러닝(Deep Learning) 구성하기
- AWS로 딥 러닝을 위한 프레임워크 MxNet 활용하기
– Channy;
Source: 딥러닝용 P2 인스턴스 타입, 서울 리전 출시
Leave a Reply