[AWS] Insufficient capacity error 에러

AWS에서 EC2 Instance 생성 시 Insufficient capacity error from EC2 while launching instances, retrying 에러가 발생하였는데요. Insufficient capacity error 에러가 어떤 에러인지 한번 알아보도록 하겠습니다.

 

 

에러 원인

Insufficient capacity error 에러가 발생하는 이유는 AWS에서 EC2 인스턴스를 생성하려고 할 때 발생할 수 있는 일반적인 오류입니다.

이 오류는 일시적으로 해당 리전 또는 가용 영역에서 충분한 용량이 없어서 인스턴스를 생성할 수 없다는 것을 나타냅니다.

주요 원인으로는 특정 가용 영역 또는 리전의 용량 한계 도달, 대규모 인스턴스 생성 및 트래픽 발생 등이 있습니다.

 

 

해결 방법

Insufficient capacity error 에러 발생 시 아래 방법을 통해 에러를 해결 할 수 있습니다.

 

  • 다른 가용 영역 또는 리전 선택
    • 인스턴스 생성 시 다른 가용 영역 또는 리전을 선택하여 용량 부족 문제 해결할 수 있습니다.
  • 인스턴스 유형 변경
    • 인스턴스 생성 시 사용하는 인스턴스 유형을 변경하여 용량 부족 문제 해결할 수 있습니다.
    • AWS는 다양한 인스턴스 유형을 제공하므로, 특정 유형의 용량이 부족한 경우 다른 유형을 선택하여 사용할 수 있습니다
  • 스팟 인스턴스 대신 온디맨드 인스턴스 사용
    • 스팟 인스턴스는 가격이 저렴하지만 가용성은 유동적으로 스팟 인스턴스의 용량이 부족할 수 있으므로 온디맨드 인스턴스를 사용하여 인스턴스를 생성할 수 있습니다.
    • 온디맨드 인스턴스는 스팟 인스턴스보다 비용이 높지만 가용성이 더 높으므로, 즉시 인스턴스를 생성해야 할 때 유용합니다.
  • 예약 인스턴스 사용
    • EC2 예약 인스턴스는 특정 시간 동안 예약된 용량을 제공하는 인스턴스입니다.
    • 예약 인스턴스를 사용하면 인스턴스 용량을 확보하여 인스턴스를 생성하는 데 더 많은 유연성과 안정성을 가질 수 있습니다.

 

 

 

지금까지 AWS에서 Insufficient capacity error 에러 발생 시 원인 및 해결 방법에 대해 알아보는 시간이었습니다....! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

 

[Reference]

 

 

 

'AWS' 카테고리의 다른 글

[AWS] Amazon SNS 알아보기  (0) 2023.07.11
[AWS] Amazon Elastic Container Registry 알아보기  (0) 2023.06.14
[AWS] Service Quota 알아보기  (0) 2023.05.22
[AWS] AWS Summit Seoul 2023 2일차  (0) 2023.05.04
[AWS] AWS Summit Seoul 2023 1일차  (0) 2023.05.03

[AWS] Service Quota 알아보기

AWS Service Quota는 AWS 리소스 또는 서비스의 사용에 대한 제한 또는 할당량을 나타냅니다. 각 서비스에는 사용할 수 있는 리소스의 양에 대한 제한이 있을 수 있으며, 이는 예를 들어 EC2 인스턴스, S3 버킷, RDS 데이터베이스 등과 같은 리소스의 수량에 적용할 수 있습니다.

 

 


사용 시 장점

AWS Service Quota를 사용하면 리소스 및 비용 관리, 확장성, 공정한 리소스 공유 및 리소스 사용 추적과 같이 AWS 리소스를 효율적으로 활용할 수 있습니다.

 

  • 리소스 제한 관리
    • Service Quota는 사용 가능한 리소스 또는 서비스에 대한 제한을 설정하여 리소스 사용을 제어합니다.
      이를 통해 조직은 리소스의 낭비를 방지하고 예상치 못한 과부하 상황을 방지할 수 있습니다.
      제한을 통해 리소스 사용을 효율적으로 계획하고 관리할 수 있습니다.
  • 비용 관리
    • Service Quota를 사용하면 비용을 효과적으로 관리할 수 있습니다.
      제한을 설정하여 예기치 못한 추가적으로 발생하는 과금을 방지할 수 있습니다.
      리소스 사용에 대한 제한을 설정하고, 모니터링함으로써 비용을 예측하고 관리할 수 있습니다.
  • 리소스 확장 및 확장성
    • Service Quota를 사용하면 리소스 사용을 조절하고, 필요에 따라 리소스 할당량을 증가시킬 수 있습니다.
      이를 통해 비즈니스 요구에 맞추어 리소스를 확장할 수 있으며, 향후 성장에 따라 할당량을 조정할 수 있습니다.
  • 자원의 공정한 공유
    • Service Quota는 AWS 리소스를 여러 사용자 또는 팀 간에 공정하게 분배할 수 있도록 도와줍니다.
      리소스 사용을 제한함으로써 공유 리소스에 대한 공정한 액세스를 보장할 수 있습니다.
  • 리소스 사용 추적
    • Service Quota를 사용하면 리소스 사용량을 추적하고 모니터링할 수 있습니다.
      리소스 사용에 대한 제한과 함께 실시간 및 정기적인 모니터링을 통해 리소스 사용 패턴을 파악하고 최적화할 수 있습니다.

 


메뉴 및 설정 방법

AWS Management Console을 통해 Service Quota에 관한 정보와 설정을 관리할 수 있습니다.

 

Dashboard 메뉴에서는 사용 가능한 할당량, 현재 사용량, 할당량 증가 요청 및 할당량 제한에 관한 정보를 제공합니다.

 

AWS Services 메뉴에서는 AWS에서 제공하는 각 서비스에 대한 할당량과 해당 할당량의 사용 현황을 확인할 수 있으며, 요청을 통해 리소스의 제한 및 할당량을 제어할 수 있습니다.

 

AWS Services 메뉴에서 설정하고자 하는 AWS 서비스를 검색 및 선택 후 Request quota increase 버튼을 클릭합니다.

 

 

설정 값을 입력 후 Request 버튼을 통해 리소스 증가 요청을 보내게됩니다.

 

요청 처리

요청을 보내게되면 AWS Support 팀에서 요청의 적합성, 요청한 할당량 증가의 이유, 해당 리소스에 대한 가용성 등을 검토하여 승인합니다. 요청 처리 시간은 요청된 할당량 증가의 복잡성과 요청량에 따라 달라질 수 있으며 일반적으로 몇 일 이내에 처리되지만, 복잡하거나 대규모 요청의 경우 더 오랜 시간이 걸릴 수 있습니다.

 

요청의 적합성과 가용성을 평가하여 승인이 결정되며, 리소스에 대한 특정 제한 사항이나 정책에 따라 거부될 수 있습니다. 요청이 완료되면 Quota request history 메뉴에서 요청한 서비스 및 리소스 정보와 상태 정보 등을 확인하실 수 있습니다.



마지막으로 Organization - Quota request template 메뉴는 AWS Organizations을 사용하는 경우 템플릿을 통해 직의 모든 멤버 및 계정에 대한 할당량 증가 요청을 효율적으로 제출하고 관리하는 메뉴입니다.

 


리소스 제한

기본적으로 AWS Service Quota에서는 모든 리소스를 허용하고 있지 않기 때문에 아래와 같이 제한된 인스턴스 사용 시 에러가 발생할 수 있습니다. 에러를 보고 당황하지 마시고, AWS Service Quota 설정을 통해 리소스 제한 설정을 통해 정상적으로 사용하시기 바랍니다.

 

 

AWS Service Quota를 통해 자유롭고, 효율적인 AWS 리소스를 관리 해보시기 바랍니다.
지금까지 Amazon SageMaker의 AWS Service Quota가 무엇인지 알아보는 시간이었습니다....! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

 

[Reference]

 

 

 

[Ansible] Yum 패키지 관리

Ansible의 YUM 모듈은 기본 모듈 중 하나로, 리눅스 시스템에서 YUM (Yellowdog Updater, Modified) 패키지 관리자를 사용하여 패키지를 설치, 업그레이드, 제거하는 작업을 수행합니다. Ansible의 YUM 모듈을 통해 원격 호스트의 패키지 관리 작업을 자동화하여 사용할 수 있습니다.

 


YUM 모듈 구조

# 주요 매개변수 및 옵션을 사용한 예시
- name: YUM 패키지 설치, 업그레이드, 제거
  ansible.builtin.yum:
    name: package_name
    state: latest
    disable_gpg_check: true
    disablerepo: myrepo
    enablerepo: myotherrepo
    update_cache: false
    use_backend: dnf

 

주요 매개변수 및 옵션

  • name: 설치 또는 제거할 패키지의 이름을 지정합니다.
  • state: 패키지의 상태를 지정합니다.
    • present : 패키지 설치
    • latest : 최신 버전으로 패키지 업그레이드
    • absent : 패키지 제거
  • disable_gpg_check: GPG (GNU Privacy Guard) 검사를 비활성화합니다. 기본값은 False입니다.
  • disablerepo: 특정 리포지토리를 비활성화합니다.
  • enablerepo: 특정 리포지토리를 활성화합니다.
  • update_cache: YUM 패키지 캐시를 업데이트합니다. 기본값은 True입니다.
  • use_backend: 사용할 백엔드를 선택합니다. 기본 값은 auto이며, dnf 또는 yum을 직접 지정할 수도 있습니다.

 


YUM 패키지 설치

  • 실행 코드
- name: 패키지 설치
  yum:
    name: tcpdump
    state: present

 

  • 실행 로그
# ansible-playbook -i {{Inventory}}  roles/test_work.yml  -vv

TASK [test_work : 패키지 설치] *************************
changed: [node0] => {"changed": true, "changes": {"installed": ["tcpdump"]}, "msg": "##### 생략 #####", "rc": 0, "results": #####", 생략 #####", "]}

 

YUM 패키지 업그레이드

  • 실행 코드
- name: 최신 버전으로 패키지 업그레이드
  yum:
    name: tcpdump
    state: latest

 

  • 실행 로그
# ansible-playbook -i {{Inventory}}  roles/test_work.yml  -vv

TASK [test_work : 최신 버전으로 패키지 업그레이드] *****************
ok: [node0] => {"changed": false, "changes": {"installed": [], "updated": []}, "msg": "", "rc": 0, "results": ["All packages providing tcpdump are up to date", ""]}

 

YUM 패키지 제거

  • 실행 코드
- name: 패키지 제거
  yum:
    name: tcpdump
    state: absent

 

  • 실행 로그
# ansible-playbook -i {{Inventory}}  roles/test_work.yml  -vv

TASK [test_work : 패키지 제거] ************************
changed: [node0] => {"changed": true, "changes": {"removed": ["tcpdump"]}, "msg": "##### 생략 #####", "rc": 0, "results": #####", 생략 #####", "]}

 

 

기본적인 설치, 업그레이드, 제거 작업을 수행할 수 있으며 매개변수 및 옵션을 추가하여 상황에 맞는 작업을 진행할 수 있습니다. 지금까지 Ansible의 YUM 모듈을 통해서 원격 호스트의 패키지 관리 작업을 자동화하는 것을 알아보았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

[Reference]

[AWS] SageMaker Notebook 알아보기

Amazon SageMaker에서는 기계 학습을 수행하기 위한 Jupyter Notebook을 제공합니다. Jupyter Notebook으로는 두 가지 유형인 Studio Notebook과 Notebook Instance가 있습니다.


Amazon SageMaker의 Notebook이 무엇인지, 두 가지 유형인 Studio Notebook과 Notebook Instance는 각각 어떻게 다른지 알아보는 시간을 가져보겠습니다.

 

 

Studio Notebook

Amazon SageMaker Studio는 통합 개발 환경(IDE)으로서 머신러닝 워크플로우를 완전히 관리하고 실행할 수 있는 환경을 제공하는데요. Studio Notebook은 SageMaker Studio 내에서 실행되는 Jupyter Notebook으로 아래와 같이 다양한 특징과 장점을 가지고 있습니다.

 

  • 사용 화면
    • SageMaker Studio 서비스의 Studio 메뉴에서 관리되며 통합 개발 환경(IDE)으로 사용 가능

 

  • 작동 방식

 

  • 통합 개발 환경
    • SageMaker Studio에서는 Jupyter Notebook 외에도 터미널, 텍스트 편집기, 디버거 등 다양한 개발 도구와 기능을 함께 제공하여 완전한 개발 환경을 제공합니다.
  • 프로젝트 기반 작업
    • SageMaker Studio는 프로젝트 기반 작업을 지원하여 여러 노트북과 스크립트를 조직화하고 버전 관리를 수행할 수 있습니다.
    • 노트북과 코드 스크립트, 데이터, 실험, 모델 등을 프로젝트 단위로 구성하여 효율적인 개발과 관리가 가능합니다.
  • 리소스 관리
    • SageMaker Studio는 자동으로 리소스를 관리하므로 Instance 프로비저닝, 확장, 관리 등에 대한 별도의 관리 작업이 필요하지 않습니다.
    • 즉, 개발자는 리소스 프로비저닝 및 관리에 시간을 투자할 필요 없이 코드 작성과 실험에 집중할 수 있습니다.
  • 공동 작업 및 협업
    • SageMaker Studio는 팀 내에서 여러 사용자가 동시에 작업할 수 있도록 공동 작업 및 협업을 지원합니다.
    • 다른 팀원과 노트북, 코드, 데이터, 실험 등을 쉽게 공유하고 협업할 수 있습니다.
  • 통합된 데이터 탐색 및 시각화
    • SageMaker Studio는 데이터 탐색 및 시각화 기능을 내장하고 있어 데이터 분석 및 전처리 작업을 지원합니다.
    • 데이터 세트를 탐색하고 시각화하여 데이터의 특성을 이해하고 모델 개발에 활용할 수 있습니다.

 

 

 

Notebook Instance

Amazon SageMaker Notebook Instance는 단일 사용자용 Jupyter Notebook 환경으로, 개별적으로 프로비저닝되고 관리되는 서비스입니다. 사용자가 필요에 따라 Instance를 생성하고, 기계 학습 작업을 수행할 수 있으며 아래와 같이 다양한 특징과 장점을 가지고 있습니다.

 

  • 사용 화면
    • SageMaker Studio 서비스의 Notebook 메뉴에서 관리되며 Instance 생성 및 제거 등의 작업이 가능함

 

  • 작동 방식

 

  • 노트북 개인화
    • Notebook Instance는 개별 사용자에게 제공되며, 사용자는 Instance를 자신의 개인 작업 환경으로 설정할 수 있습니다.
    • 필요한 라이브러리, 패키지, 환경 설정 등을 자유롭게 선택하여 사용할 수 있습니다.
  • 리소스 컨트롤
    • Notebook Instance를 개별적으로 프로비저닝하고 관리할 수 있습니다.
    • Instance 유형, 스토리지 용량, 컴퓨팅 성능 등을 사용자가 직접 제어할 수 있습니다.
  • 유연한 사용
    • Notebook Instance는 필요에 따라 생성하고 삭제할 수 있습니다. 작업이 끝나면 Instance를 종료하여 비용을 절약할 수 있습니다.
    • 여러 개의 Instance를 생성하여 병렬로 작업을 수행할 수도 있습니다.
  • 코드 공유 및 협업
    • Notebook Instance는 코드, 데이터, 노트북 등을 저장하고 다른 사용자와 공유할 수 있는 기능을 제공합니다.
    • 코드 리뷰, 협업, 지식 공유 등을 원활하게 수행할 수 있습니다.
  • 확장성
    • SageMaker Notebook Instance는 다양한 Instance 유형과 사양을 선택할 수 있어 작업에 맞게 확장할 수 있습니다.
    • 필요에 따라 Instance 유형을 업그레이드하거나 다수의 Instance를 사용하여 성능을 향상시킬 수 있습니다.

 

 

비용

Amazon SageMaker Notebook의 비용은 선택한 Instance 유형, Instance 수, 스토리지 크기, 데이터 전송량 등 다양한 요소에 따라 달라질 수 있습니다. 실제 사용 비용을 예측하기 위해서는 아래 비용 요소들을 통해 예측하거나, 실제 사용해 보면서 비용을 예측해 볼 수 있을 것 같습니다.

 

  • Instance 비용
    • SageMaker Notebook은 EC2 Instance 위에서 실행되므로, Instance 유형과 Instance 수에 따라 비용이 결정됩니다.
    • 또한 시간당 또는 사용량에 따른 요금이 부과됩니다.
  • 스토리지 비용
    • SageMaker Notebook은 사용자 데이터 및 노트북 파일을 저장하기 위한 스토리지를 필요로 합니다.
    • 이는 EBS(Elastic Block Store)로 제공되며 사용한 스토리지 용량 및 유형에 따라 추가 비용이 발생할 수 있습니다.
  • 데이터 전송 비용
    • SageMaker Notebook은 데이터를 다운로드 및 업로드 시 데이터 전송 비용이 발생할 수 있습니다.
    • 데이터를 S3에서 노트북으로 다운로드 받거나 노트북에서 S3로 업로드하는 경우 데이터 전송 비용이 발생할 수 있습니다.
  • 추가 서비스 비용
    • SageMaker Notebook은 SageMaker의 Data Wrangler, Autopilot, Ground Truth 등 다른 SageMaker 서비스와 연동 시 추가 비용이 발생할 수 있습니다.

 

 

 

지금까지 Amazon SageMaker의 Notebook이 무엇인지 알아보는 시간이었습니다....! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

[Reference]

[AWS] SageMaker Studio 알아보기

Amazon SageMaker를 통해 내부 기계 학습 환경을 AWS Cloud 환경으로 옮기고, MLOps를 지원할 수 있도록 구성하는 작업을 진행 중에 있습니다. Amazon SageMaker의 Studio를 통해 웹 기반 시각적 인터페이스로 학습 데이터 준비부터 기계 학습 모델 구축, 훈련, 배포에 이르기까지 모든 기계 학습(ML) 개발 단계를 손쉽게 수행할 수 있는데요. Amazon SageMaker의 Studio가 무엇인지 좀 더 알아보는 시간을 가져보겠습니다.


주요 기능

Amazon SageMaker Studio의 주요 기능 다섯 가지는 아래와 같습니다.

  • Jupyter 노트북에서 코드 작성 및 실행
  • 기계 학습을 위한 데이터 준비
  • 기계 학습 모델 빌드 및 훈련
  • 모델 배포 및 예측 성능 모니터링
  • 기계 학습 실험의 추적 및 디버그

 

그 외의 세부적인 기능으로는 데이터로부터 모델을 자동으로 생성하는 기능인 Autopilot, 데이터 전처리 및 시각화를 위한 인터페이스를 제공하는 Data Wrangler, 모델의 관리와 버전 관리를 위한 중앙 저장소 기능인 Model Registry 등 여러가지 기능을 제공하고 있습니다.


작동 방식

작동 방식을 확인해보면 실제 학습 데이터를 준비하고 학습 시 사용할 수 있도록 저장 및 가공하는 작업을 거치게 됩니다. 그 이후에는 모델을 학습하고, 학습이 완료된 모델은 저장하여 관리하거나 실제 운영 환경에 자동으로 배포할 수 있습니다. 또한 생성된 모델을 자동으로 테스트하고, 테스트 결과를 모니터링 등을 통해 확인할 수도 있습니다.


화면

Amazon SageMaker 메인 화면에서 Studio 메뉴를 통해 접근할 수 있으며 Open Studio 버튼을 클릭하여 웹 기반 인터페이스르를 접근할 수 있습니다.

 

 

웹 기반 인터페이스에서는 Data, AutoML, Notebook jobs, Pipelines 등의 여러가지 기능을 관리할 수 있습니다.

 

 

Running Terminals and Kernels 메뉴에서는 현재 실행되고 있는 Studio Notebook과 Notebook Instance, Teminal 등을 확인하고 관리할 수 있습니다.

이 외에도 SageMaker에서 사용할 수 있는 다양한 기능들을 Studio를 통해 사용하실 수 있습니다.

 

 

지금까지 Amazon SageMaker의 Studio가 무엇인지 알아보는 시간이었습니다....! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

[Reference]

[Linux] RPM 패키지 상세 정보 확인하기

rpm 명령어를 사용하여 RPM 패키지 설치 및 이름, 버전, 빌드 시간 등의 상세 정보를 확인할 수 있는데요. 저는 rpm 명령어를 통해 Ansible로 Deploy 시 Deploy 환경의 RPM 패키지 버전 등의 상세 정보를 확인하여 버전에 따라 로직을 구분할 때 사용하였습니다.

 

 

 

rpm 명령어에 -qip 옵션을 추가하여 RPM 패키지를 지정하면 아래와 같이 이름, 버전, 빌드 시간 등의 상세 정보를 확인하실 수 있습니다.

# rpm -qip ntp-4.2.6p5-29.el7.centos.2.x86_64.rpm
Name        : ntp
Version     : 4.2.6p5
Release     : 29.el7.centos.2
Architecture: x86_64
Install Date: (not installed)
Group       : System Environment/Daemons
Size        : 1434385
License     : (MIT and BSD and BSD with advertising) and GPLv2
Signature   : RSA/SHA256, 2020년 06월 24일 (수) 오전 02시 36분 52초, Key ID 24c6a8a7f4a80eb5
Source RPM  : ntp-4.2.6p5-29.el7.centos.2.src.rpm
Build Date  : 2020년 06월 24일 (수) 오전 12시 38분 26초
Build Host  : x86-01.bsys.centos.org
Relocations : (not relocatable)
Packager    : CentOS BuildSystem <http://bugs.centos.org>
Vendor      : CentOS
URL         : http://www.ntp.org
Summary     : The NTP daemon and utilities
Description :
The Network Time Protocol (NTP) is used to synchronize a computer's
time with another reference time source. This package includes ntpd
(a daemon which continuously adjusts system time) and utilities used
to query and configure the ntpd daemon.

Perl scripts ntp-wait and ntptrace are in the ntp-perl package,
ntpdate is in the ntpdate package and sntp is in the sntp package.
The documentation is in the ntp-doc package.

 

 

rpm 명령어의 다양한 옵션을 사용할 수 있으며 아래 링크를 통해 추가적인 옵션을 확인하시기 바랍니다.
https://rpm-software-management.github.io/rpm/man/rpm.8.html

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

[AWS] AWS Summit Seoul 2023 2일차

오늘 AWS Summit Seoul 2023 2일차를 다녀왔습니다...! 1일차에 비해 오시는 분들이 조금 줄어들지 않을까 생각했는데요. 하지만 1일차와 거의 비슷하게 많은 분들이 참석해주신 것 같습니다. 어제인 1일차에는 산업 업종별 강연을 통해 각 서비스 업종별, 사용했던 기술별로 다양한 레퍼런스를 들을 수 있어서 너무 좋은 시간이었습니다. 

 

2일차는 기술 주제별 강연으로 EC2, 스토리지, EKS, SageMaker 등 AWS에서 제공하는 다양한 서비스와 SaaS 서비스를 통해 Public Cloud를 더욱 효과적으로 사용할 수 있도록 도와주는 Datadog, SnowFlake 등 다양한 기술을 알아가는 기회가 될 수 있었습니다.

 

기술 주제별 강연이므로 아래와 같이 입문 기술, 중급 기술, 심화 기술, 커뮤니티 등으로 강연이 나눠져 있었습니다. 저는 아직 AWS에 대해서 많이 부족하여 입문이라고 생각하지만 SageMaker, SaaS, EKS, Observability 등 다양한 기술에 관심이 있어 다양한 주제의 강연을 들었습니다.

 


기조연설은 AWS 수석 테크 에반젤리스트인 윤석찬님이 진행해주셨습니다. AWS 서버리스 컴퓨팅 부사장인 Holly님은 영상으로 Summit Seoul에 전달하고 싶은 내용을 전달해주셨으며 이후에는 Flitto CTO인 강동한님과 LG U+ 연구위원인 송주영님이 윤석찬님과 Q&A 시간을 가지면서 AWS Public Cloud에 대한 이야기를 나눴습니다.

 

기조연설에서는 윤석찬님은 On-Premise 환경에서 Public Cloud로 서비스 운영 환경이 변화하면서 어떤 부분이 많이 변화하였는가를 말씀해주셨는데요. 변화된 부분 중 가장 큰 두가지의 변화를 이벤트 기반의 아키텍처 도입과 서버리스 서비스의 사용을 말씀해주셨습니다. Lambda, Fargate, API Gateway 등 다양한 서버리스 서비스를 통한 인프라 관리 비용 절감과 처리속도 등의 장점을 설정해주셨으며 이를 이벤트 기반으로 아키텍처를 설계하여 사용한다고 말씀해주셨습니다. 마지막으로는 서버리스 기반 천만 사용자 아키텍처에 대한 설명도 해주셨습니다.

 

이후에는 윤석찬님이 MC를 진행하고 강동한님, 송주영님이 각각 스타트업, 대기업 관점으로 Public Cloud 사용에 대한 Q&A 시간을 가졌는데요. SaaS 서비스를 구축하면서 어려웠던 부분을 극복하는 과정과 SaaS 서비스를 구축하기 위해서 반드시 필요한 요소들에 대해 각자의 생각을 공유해주셨습니다.

 


아래 사진은 2일차 기술 주제별 강연이며 제가 참여한 컨퍼런스를 체크해봤습니다. 직접들을 수 있는 6개의 강연 중 4개의 강연을 듣고 나머지 시간은 Expo를 탐방하는 시간을 가졌습니다.

전체 강연 아젠다는 아래 링크를 통해 확인하실 수 있습니다.

https://pages.awscloud.com/rs/112-TZM-766/images/AWS%20Summit%20Seoul%202023%20-%20Agenda.pdf

 

 

[ Amazon EKS, 중요한건 꺽이지 않는 안정성 ]

Amazon EKS에 대한 지식이 부족했지만 kubernetes를 사용해본 경험을 통해 EKS 관련 강연을 듣게 되었습니다. 컨트롤 플레인과 데이터 플레인 각각에 대한 안정성을 설정해주셨는데요. kubernetes의 기능인 readinessProbe, livenessProbe 등을 통해 Pod의 상태를 확인하고, Pod 확장과 노드 확장인 HPA(Horizontal Pod AutoScaler), CA(Cluster Auto Scaler) 등의 오토스케일을 통해 안정성을 보장하는 것을 설명해주셨습니다. Kubernetes 클러스터 오토스케일러 오픈소스인 Karpenter에 대한 소개도 해주셨으며, Kubernetes 버전 업데이트 전략에 대해서도 설명해주셨습니다.

 

[ 천만 사용자 서비스를 위한 Amazon SageMaker 활용 방법 진화하기 ]

Amazon SageMaker를 통한 MLOps를 작업하고 있어 SageMaker에 대한 기대가 높은 상태로 강연을 듣게 되었습니다.

각각의 사용자 수에 따른 MLOps 전략과 이에 따른 SageMaker 사용 방법을 설명해주셨는데요. 100만 사용자, 1000만 사용자가 넘어갔을 때의 아키텍처는 생각보다 많이 복잡했습니다. 대규모 학습, 대규모 트래픽에 따른 대응, 고성능 추론 아키텍처 등 다양한 전략이 필요함을 설멸해주셨습니다. 추가적으로 비용 절감을 위한 기계학습 전용칩 기반 인스턴스를 사용하면 좋다는 내용도 말씀해주셨습니다. SageMaker 강연을 통해 다양한 부분을 생각하면서 MLOps를 구성해야겠다는 생각을 하게되었습니다.

 

 

이후 강연을 통해서도 여러가지 지식을 얻을 수 있었습니다.

 

 

강연 이후에는 Expo를 통해 AWS Public Cloud 환경에서 SaaS 서비스를 하고 있는 다양한 기업과 서비스를 확인할 수 있었는데요. 금융, 의료, 개발도구, 모니터링, 메타버스 등 정말 다양한 분야의 서비스가 SaaS를 통해 서비스를 운영하고 있다는 것을 알게되었습니다. 언젠가는 제가 담당하는 SaaS 서비스가 출시하고 성장하면, AWS Summit Seoul과 같은 IT 컨퍼런스에 참여하는 기회가 되면 좋을 것 같습니다.

 

이틀동안 AWS Summit Seoul 2023을 통해 AWS와 Public Cloud, SaaS 등에 대한 전반적인 지식을 얻을 수 있어 좋았고, 오랜만에 오프라인 컨퍼런스에 참여하게 되어서 더욱 더 좋았습니다. 다음에도 AWS Summit Seoul과 같은 IT 컨퍼런스가 있다면 참여하여 좋은 기회가 되면 좋겠습니다...끝..!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

[AWS] AWS Summit Seoul 2023 1일차

최근에 AWS SaaS Boot Camp를 참여하여 AWS와 SaaS에 대한 관심이 엄청 커진 상태에서 이번에는 AWS Summit Seoul 2023에 참여하게 되었습니다. AWS Summit Seoul은 국내 최대 IT 컨퍼런스로 코엑스 컨벤션 센터에서 5월 3일(수)~ 4일(목) 일정으로 이틀간 진행하며 이번에 9회차를 맞고, 저는 첫 번째로 참여하게 되었습니다. 다양한 분야의 전문가들과 다양한 주제로 컨퍼런스를 참여할 수 있어 기분이 좋았습니다.

 

 

코엑스 컨벤션 센터의 지하 1층부터 지상 3층까지 컨퍼런스 공간이 마련되어 있었습니다.

 

 

1층에 있는 Expo에는 다양한 전시와 체험할 수 있는 부스가 있었지만 시간이 많지 않았기 때문에 바로 기조연설을 참석하기위해 이동했습니다. 기조연설 컨퍼런스룸으로 이동하기전 그랜드볼룸 앞에는 AWS Summit Seoul 참여 횟수에 따른 랜덤 캡슐을 뽑는 부스가 있었는데요. 저는 첫 번째 참여였기 때문에 1회차 랜덤 캡슐을 뽑고 스티커를 받았습니다..!

 

아래는 랜덤으로 뽑은 스티커입니다. 다른 회차는 다른 상품이 있는지 좀 궁금하군요..ㅎㅎ

 

 


기조연설은 AWS 모니터링 및 관측성 담당 부사장인 Nandini님과 AWS Korea 대표이사 함기호님 등을 포함하여 AWS에 큰 기여를 하고 있거나 적용 사례를 가지고 있는 분들이 진행해주셨습니다.

 

기조연설은 오디토리움에서 진행되었고, 생각보다 엄청 넓은 공간이었고 준비가 잘 되어있는 것 같아 기대가 되었습니다.

기조연설은 AWS가 과거부터 어떻게 성장해왔고, 앞으로 고객들을 위해 어떤 방향으로 발전해나갈 것인지 설명해주셨습니다. 또한 AWS에 있는 다양한 서비스들을 통해 빠른 속도, 비용 절감, 고가용성 등의 이점을 살릴 수 있고, AWS를 통해 서비스 구축 시 어떤 포인트들을 생각하면서 아키텍처를 설계해야되는지 설명해주셨습니다. 기조연설을 통해 AWS의 전반적인 앞으로의 방향성과 다양한 이점에 대해서 리마인드되는 시간이었던 것 같습니다.

 


기조연설이 끝나고 이제 컨퍼런스를 듣기위해 컨퍼런스룸으로 움직였습니다. 1일차에는 산업 업종별 강연과 2일차에는 기술 주제별 강연을 이뤄져 있었습니다. 1일차에는 클라우드 네이티브, 메가트렌드, 금융 및 핀테크, 통신 및 미디어, 리테일 및 디지털커머스, 제조 및 하이테크, 공공 부문 분야가 있었고 저는 클라우드 네이티브와 메가트렌드 분야를 중점으로 컨퍼런스를 참여하였습니다.

 

아래 사진은 1일차 산업 업종별 강연 내용이며 제가 참여한 컨퍼런스를 체크해봤습니다.

전체 강연 아젠다는 아래 링크를 통해 확인하실 수 있습니다.

https://pages.awscloud.com/rs/112-TZM-766/images/AWS%20Summit%20Seoul%202023%20-%20Agenda.pdf

 

 

산업 업종별 강연이다보니 각 서비스 업종별, 사용했던 기술별로 다양한 레퍼런스를 들을 수 있어서 너무 좋은 시간이었습니다. SaaS 서비스를 준비 중이다보니 AWS Public Cloud에서 SaaS 서비스 구축를 위한 시스템 아키텍처 설계, 대규모 트레픽을 처리하기 위한 방법, 안정적인 서비스 운영 방법, Observability를 통한 FinOps 등 다양한 지식을 얻을 수 있었습니다. 또한 AI와 MLOps 등에도 관심이 많았기 때문에 Generative AI로 SaaS 서비스를 운영하고 있는 스캐터랩의 AWS 활용법 사례를 듣는 시간 또한 너무 좋은 시간이었습니다.

 

 

 

내일인 2일차에는 기술 주제별 강연입니다. SageMaker와 SaaS 서비스 관련 최적화와 관련된 컨퍼런스를 들을려고 합니다. 관련 지식을 통해 실제 SageMaker를 통한 MLOps 구축과 SaaS 서비스 준비에 많은 도움이 되었으면 하는 바람이 큽니다. 두근두근한 마음으로 AWS Summit Seoul 2023 2일차를 참여하도록 하겠습니다....!!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

+ Recent posts