[AWS] AWS Summit Seoul 2023 1일차

최근에 AWS SaaS Boot Camp를 참여하여 AWS와 SaaS에 대한 관심이 엄청 커진 상태에서 이번에는 AWS Summit Seoul 2023에 참여하게 되었습니다. AWS Summit Seoul은 국내 최대 IT 컨퍼런스로 코엑스 컨벤션 센터에서 5월 3일(수)~ 4일(목) 일정으로 이틀간 진행하며 이번에 9회차를 맞고, 저는 첫 번째로 참여하게 되었습니다. 다양한 분야의 전문가들과 다양한 주제로 컨퍼런스를 참여할 수 있어 기분이 좋았습니다.

 

 

코엑스 컨벤션 센터의 지하 1층부터 지상 3층까지 컨퍼런스 공간이 마련되어 있었습니다.

 

 

1층에 있는 Expo에는 다양한 전시와 체험할 수 있는 부스가 있었지만 시간이 많지 않았기 때문에 바로 기조연설을 참석하기위해 이동했습니다. 기조연설 컨퍼런스룸으로 이동하기전 그랜드볼룸 앞에는 AWS Summit Seoul 참여 횟수에 따른 랜덤 캡슐을 뽑는 부스가 있었는데요. 저는 첫 번째 참여였기 때문에 1회차 랜덤 캡슐을 뽑고 스티커를 받았습니다..!

 

아래는 랜덤으로 뽑은 스티커입니다. 다른 회차는 다른 상품이 있는지 좀 궁금하군요..ㅎㅎ

 

 


기조연설은 AWS 모니터링 및 관측성 담당 부사장인 Nandini님과 AWS Korea 대표이사 함기호님 등을 포함하여 AWS에 큰 기여를 하고 있거나 적용 사례를 가지고 있는 분들이 진행해주셨습니다.

 

기조연설은 오디토리움에서 진행되었고, 생각보다 엄청 넓은 공간이었고 준비가 잘 되어있는 것 같아 기대가 되었습니다.

기조연설은 AWS가 과거부터 어떻게 성장해왔고, 앞으로 고객들을 위해 어떤 방향으로 발전해나갈 것인지 설명해주셨습니다. 또한 AWS에 있는 다양한 서비스들을 통해 빠른 속도, 비용 절감, 고가용성 등의 이점을 살릴 수 있고, AWS를 통해 서비스 구축 시 어떤 포인트들을 생각하면서 아키텍처를 설계해야되는지 설명해주셨습니다. 기조연설을 통해 AWS의 전반적인 앞으로의 방향성과 다양한 이점에 대해서 리마인드되는 시간이었던 것 같습니다.

 


기조연설이 끝나고 이제 컨퍼런스를 듣기위해 컨퍼런스룸으로 움직였습니다. 1일차에는 산업 업종별 강연과 2일차에는 기술 주제별 강연을 이뤄져 있었습니다. 1일차에는 클라우드 네이티브, 메가트렌드, 금융 및 핀테크, 통신 및 미디어, 리테일 및 디지털커머스, 제조 및 하이테크, 공공 부문 분야가 있었고 저는 클라우드 네이티브와 메가트렌드 분야를 중점으로 컨퍼런스를 참여하였습니다.

 

아래 사진은 1일차 산업 업종별 강연 내용이며 제가 참여한 컨퍼런스를 체크해봤습니다.

전체 강연 아젠다는 아래 링크를 통해 확인하실 수 있습니다.

https://pages.awscloud.com/rs/112-TZM-766/images/AWS%20Summit%20Seoul%202023%20-%20Agenda.pdf

 

 

산업 업종별 강연이다보니 각 서비스 업종별, 사용했던 기술별로 다양한 레퍼런스를 들을 수 있어서 너무 좋은 시간이었습니다. SaaS 서비스를 준비 중이다보니 AWS Public Cloud에서 SaaS 서비스 구축를 위한 시스템 아키텍처 설계, 대규모 트레픽을 처리하기 위한 방법, 안정적인 서비스 운영 방법, Observability를 통한 FinOps 등 다양한 지식을 얻을 수 있었습니다. 또한 AI와 MLOps 등에도 관심이 많았기 때문에 Generative AI로 SaaS 서비스를 운영하고 있는 스캐터랩의 AWS 활용법 사례를 듣는 시간 또한 너무 좋은 시간이었습니다.

 

 

 

내일인 2일차에는 기술 주제별 강연입니다. SageMaker와 SaaS 서비스 관련 최적화와 관련된 컨퍼런스를 들을려고 합니다. 관련 지식을 통해 실제 SageMaker를 통한 MLOps 구축과 SaaS 서비스 준비에 많은 도움이 되었으면 하는 바람이 큽니다. 두근두근한 마음으로 AWS Summit Seoul 2023 2일차를 참여하도록 하겠습니다....!!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

[Linux] Rocky 설치하기

현재 많이 사용하고 있는 Linux 배포판인 CentOS 7의 EOL이 2024년 6월 30일로 얼마 남지 않았습니다. 이에 따라 CentOS 7을 사용하는 많은 분들이 어떤 OS로 넘어갈지 고민에 빠져있을 것 같습니다. CentOS 7을 대체하기 위해서 Rocky Linux가 주목받고 있으며있으며 Rocky Linux를 설치하는 방법을 알아봅시다.

 

 

ISO 파일 다운로드

Rocky Linux 공식 홈페이지에서 최신 Rocky Linux 8 버전을 다운로드 받습니다.
최신 버전은 2022년 11월 14일에 Release된 8.7 버전입니다.
https://rockylinux.org/download/

 

 

Rocky Linux 설치

Rocky Linux의 기본적인 설치 방법은 CentOS 7과 거의 동일하며 기존에 CentOS 7을 설치해보신 분들이라면 편하게 설치를 진행하실 수 있을 것 같습니다. 저는 Rocky Linux를 설치하기 위해 Hyper-V를 통해 진행하였습니다.

 

 

VM 실행 후 Rocky Linux 8 설치 화면에서 Install Rocky Linux 8을 선택합니다.

 

 

로딩 화면 후 설치 화면이 나오는데요. CentOS 7과 거의 동일한 것을 확인하실 수 있습니다. 언어 설정은 영어를 선택 후 넘어갑니다.

 

설치 메뉴 중 아래 화면에 체크한 항목을 설정 후 설치를 진행해보도록 하겠습니다.

 

첫 번째로는 TIME & DATE 설정입니다. Asia/Seoul로 설정합니다. 시간 설정은 설치 완료 후에도 수동으로 변경할 수 있습니다.

 

두 번째로는 SOFTWARE SELECTION 설정입니다. 저는 필요한 패키지만 설치하여 사용하기 위해 Server With GUI가 아닌 Minimal Install을 선택하였습니다. 기본 서버에 필요한 패키지를 설치하시려면 Server, 추가로 GUI 화면이 필요하시면 Server With GUI을 선택하시면 됩니다.

 

 

세 번째로는 INSTALLATION DESTINATION 설정입니다. 저는 수동으로 디스크를 설정하기위해 Custom을 선택하였습니다. 자동으로 설정되는 Automatic을 설정하셔도 상관 없습니다.

 

기본 디스크가 설정되도록 Click here to create them automatically를 선택합니다.

 

/home 디렉토리를 사용하지 않고 / 디렉토리만을 사용하기 위해 /home 디렉토리를 삭제하고 남은 디스크 용량을 / 디렉토리에 할당합니다.

 

설정 변경사항을 확인 후 적용합니다.

 

네 번째로는 KDUMP 설정입니다. 기본 설정은 사용하도록 체크되어있으며 사용하지 않을 것이므로 해제합니다.

 

마지막으로 ROOT PASSWORD 설정입니다. 설정하고자하는 ROOT PASSWORD를 입력하여 설정합니다.

 

설정이 완료되면 Begin Installation 버튼을 클릭하여 설치를 진행합니다.

 

설치가 진행되고 완료되면 Reboot System 버튼을 클릭하여 시스템을 재시작 합니다.

 

 

이제 시스템 부팅이 완료되면 설치된 Rocky Linux 커널 버전을 확인하실 수 있고, 로그인을 통해 Rocky Linux를 사용하실 수 있습니다.

 

 

 

지금까지 Rocky Linux를 간단히 설치하는 방법을 알아보았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

[AWS] Amazon SageMaker 알아보기

 

AWS의 Amazon SageMaker를 통해 기존에 물리서버에서 하고있었던 기계 학습(Machine Learning) 환경을 Public Cloud 환경에서도 구현가능한지 확인해보고, 비용 측면이나 활용도 측면에서도 정말 좋은지 확인해보고자 작업을 진행하고 있습니다. Amazon SageMaker를 활용하기 위해 좀 더 알아본 내용과 AWS SageMaker 교육을 통해 알아본 내용을 같이 정리해보았습니다.

 

 

개요

Amazon SageMaker는 AWS에서 2017년 11월에 출시된 Cloud 기계 학습(Machine Learning) 서비스 입니다.

 

SageMaker를 사용하면 개발자가 Cloud 환경에서 기계 학습 모델을 생성, 학습 및 배포할 수 있습니다. 기계 학습을 위해 다양한 언어를 지원할 뿐만 아니라 학습 환경 구성, 학습, 배포하기 위한 pipeline을 제공하여 MLOps를 구현할 수도 있습니다. EC2에서 사용가능한 다양한 GPU 인스턴스를 제공하여 적합한 사양의 서버를 사용하여 기계 학습 시 사용할 수 있습니다. 제품 추천, 개인화, 지능형 쇼핑, 로봇 공학, 음성 지원 디바이스를 포함하여 20년에 걸친 Amazon의 실제 기계 학습 애플리케이션 개발 경험에 기반하여 구축된 서비스입니다.

 

 

사용 효과

아래 이미지는 AWS의 자료로 Amazon SageMaker를 사용하면 다양한 사용 효과를 얻을 수 있다고 합니다.

  • TCO(Total Cost of Ownership) : IT 인프라를 구매, 설치, 실행 및 유지 관리하는 과정에서 발생하는 모든 비용

개인적인 생각으로는 AWS의 GPU 인스턴스의 가격이 저렴하진 않기 때문에 비용적인 측면은 많은 고민이 필요할 것 같지만, MLOps를 구현한다면 팀 생산성 증가와 자동화로 인한 비용 감소를 예측할 수 있을 것 같다는 생각이 듭니다.

 

 

다양한 지원

선도적인 기계 학습 프레임워크, 도구 키트 및 프로그래밍 언어 등 다양한 지원을 통해 더욱 자유롭고 효율적으로 Amazon SageMaker를 사용할 수 있도록 지원하고 있습니다.

프로그래밍 언어 같은 경우에는 다양한 언어를 지원하지만 내부적으로 python을 기준으로 동작한다고하니 참고하시면 좋을 것 같습니다.

 

 

다양한 기능

기계 학습에 기본적으로 필요한 Train, Pipelines, Deploy 등 뿐만 아니라 기계 학습 환경을 자유롭고, 간단하게 구성하기 위한 Notebooks, Model Monitor, Studio, Feature Store, Automatic Model Tuning 등 다양한 기능을 제공하고 있습니다.

  • Amazon SageMaker Features

다양한 기능을 사용하여 최적의 학습 환경 및 MLOps를 구축할 수 있을 것 같습니다.

 

사용 고객

아래 이미지는 AWS의 자료로 Amazon SageMaker를 해외 기업뿐만 아니라 국내 기업에서도 Amazon SageMaker를 많이 사용하고 있는 것을 확인하실 수 있습니다.

AWS 기술 블로그에서는 Amazon SageMaker를 사용하여 모델을 개발하거나, 어떤식으로 사용하였는지 다양한 정보를 확인하실 수 있습니다.

 

[ Amazon SageMaker로 컬리(Kurly) 상품 후기 분류 모델 개발하기 ]

[ 농심의 Amazon SageMaker를 활용한 원자재 가격예측과 MLOps 여정 ]

 

 

 

지금까지 Amazon SageMaker가 어떤 것인지 알아본 내용을 정리해봤는데요. 실제 Amazon SageMaker를 사용해보면서 어떻게 사용하고 활용할 수 있는지 차차 정리해보도록 하겠습니다. 그럼 이만...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

 

[Reference]

[Jenkins] Jenkins Pipeline Artifacts 활용하기

Jenkins 에서는 Artifact 플러그인 기능을 사용하여 생성된 Artifact를 저장하거나 복사하여 필요한 프로젝트 및 빌드에서 사용할 수 있습니다. Jenkins Pipeline에서 Artifacts 기능을 활용하는 방법을 알아봅시다.

 

 

Artifacts 정의

우선 Artifacts 기능을 활용하기 전에 Artifacts에 대한 정의를 알아봅시다.

 

위키백과에서는 Artifacts를 소프트웨어 개발 과정에서 생성되는 다양한 유형의 부산물 중 하나라고 설명하고 있습니다. 일부 Artifacts(예: 사용 사례, 클래스 다이어그램 및 기타 UML(Unified Modeling Language) 모델, 요구 사항 및 디자인 문서)는 소프트웨어의 기능, 아키텍처 및 디자인을 설명하는 데 도움이 되고, 다른 Artifacts는 프로젝트 계획, 비즈니스 사례 및 위험 평가와 같은 개발 프로세스 자체와 관련이 있다고 설명하고 있습니다.

https://en.wikipedia.org/wiki/Artifact_(software_development)

 

Artifact (software development) - Wikipedia

From Wikipedia, the free encyclopedia An artifact is one of many kinds of tangible by-products produced during the development of software. Some artifacts (e.g., use cases, class diagrams, and other Unified Modeling Language (UML) models, requirements and

en.wikipedia.org

 

소프트웨어 개발 과정에서 생성되는 다양한 형태의 요소들을 모두 Artifacts로 정의하고 있으며 제 개인적인 생각으로는 소스 코드를 통해 생성되는 실행(바이너리) 파일 및 라이브러리들이 이와 같다고 생각됩니다.

 

 

Artifact 플러그인 설치

Artifact 기능을 사용하기 위해 Copy Artifact 플러그인을 설치해줍니다. 플러그인은 "Jenkins 관리 -> 플러그인 관리" 메뉴에서 설치가 가능합니다.

Copy Artifact 플러그인을 설치 완료하면 Pipeline에서 archiveArtifacts{} 구문과 copyArtifacts{} 구문을 사용할 수 있습니다.

 

 

Artifact 사용

Pipeline에서 archiveArtifacts{} 구문을 사용하여 실행(바이너리) 파일 및 라이브러리들을 저장하고, copyArtifacts{} 구문을 사용하여 저장되어있는 Artifact 파일들을 복사하여 필요한 프로젝트 및 빌드에서 사용할 수 있습니다.

 

Artifact 저장 (archiveArtifacts)

저장할 파일 경로 또는 패턴을 필수 값인 artifacts을 통해 지정할 수 있으며 optional을 통해 추가적인 옵션을 추가할 수 있습니다. 기본적인 구문은 아래와 같이 사용됩니다.

 

*.txt로 끝나는 파일들을 Artifact에 저장하는 설정입니다.

archiveArtifacts artifacts: '**/*.txt', (optional)

 

 

artifacts로 파일 및 디렉토리 지정 시 glob 형식의 패턴을 통해 아래와 같이 사용할 수 있습니다.

### target 디렉토리에 있는 main.jar 파일 지정
archiveArtifacts artifacts: 'target/main.jar'

### target 디렉토리에 있는 *.jar 파일 지정
archiveArtifacts artifacts: 'target/*.jar'

### target 디렉토리에 있는 *.jar 파일과 *.war 파일 지정
archiveArtifacts artifacts: 'target/*.jar, target/*.war'

### 모든 디렉토리에 있는 *.jar 파일 지정
archiveArtifacts artifacts: '**/*.jar'

 

여러 옵션을 사용하여 아래와 같이 사용할 수도 있습니다.

  • excludes: 디렉토리 경로 및 파일의 패턴을 지정하여 제외할 수 있습니다. 설정 패턴은 artifacts와 동일하게 사용 가능합니다.
  • allowEmptyArchive: 빌드 아티팩트가 없는 경우도 아카이브에 추가할지 여부를 결정합니다. 기본값은 false이며, true로 설정하면 아카이브가 빈 상태가 될 수 있습니다.
  • caseSensitive: 아카이브 내 파일 이름 검색시 대소문자를 구분할지 여부를 결정합니다. 기본값은 false이며, true로 설정하면 대소문자를 구분합니다.
  • defaultExcludes: 아카이브에서 기본적으로 제외할 파일을 결정합니다. 기본값은 true이며, false로 설정하면 Ant 파일 패턴을 사용하여 제외할 파일을 지정할 수 있습니다.
  • fingerprint: 빌드 아티팩트의 지문(fingerprint)을 생성하여 추적할지 여부를 결정합니다. 기본값은 false이며, true로 설정하면 빌드 아티팩트가 변경될 때마다 새로운 지문이 생성됩니다.
  • followSymlinks: 심볼릭 링크를 따라가서 링크가 가리키는 실제 파일을 아카이브할지 여부를 결정합니다. 기본값은 false이며, true로 설정하면 심볼릭 링크가 아닌 실제 파일이 아카이브됩니다.
  • onlyIfSuccessful: 빌드가 성공했을 때만 아카이브를 생성할지 여부를 결정합니다. 기본값은 false이며, true로 설정하면 빌드가 실패했을 때는 아카이브를 생성하지 않습니다.

 

 

Artifact 복사 (copyArtifacts)

archiveArtifacts{} 구문을 통해 저장된 파일을 copyArtifacts{} 구문을 통해 복사할 수 있습니다. 기본적인 구문은 아래와 같이 사용됩니다. projectName 필드 설정으로 가져올 빌드의 이름을 지정하여 파일을 복사하는 설정입니다. 다른 프로젝트 빌드에 저장되어 있는 Artifact를 복사하여 사용할 수도 있습니다.

 

copyArtifacts(
    projectName: 'pipeline-project-name'
    (optional)
)

 

여러 옵션을 사용하여 아래와 같이 사용할 수도 있습니다.

  • filter: 가져올 아티팩트를 필터링하는 방법을 지정합니다. glob 형식의 패턴을 사용할 수 있습니다. 예를 들어, */.jar는 모든 .jar 파일을 가져옵니다.
  • excludes: 가져오지 않을 아티팩트를 지정합니다. filter와 마찬가지로 glob 형식의 패턴을 사용할 수 있습니다.
  • fingerprintArtifacts: 가져온 아티팩트의 지문(fingerprint)을 생성합니다. 이 옵션을 true로 설정하면, Jenkins는 가져온 아티팩트의 지문을 계산하고, 이후 빌드에서 이 아티팩트가 사용될 때 지문을 검증합니다.
  • flatten: 가져온 아티팩트를 평면 구조로 저장합니다. 이 옵션을 true로 설정하면, 가져온 아티팩트가 현재 빌드의 루트 디렉토리에 직접 저장됩니다. 이 옵션을 false로 설정하면, 가져온 아티팩트가 원래의 디렉토리 구조를 유지합니다.
  • includeBuildNumberInTargetPath: 가져온 아티팩트를 저장할 때 빌드 번호를 포함시킵니다. 이 옵션을 true로 설정하면, 가져온 아티팩트가 현재 빌드의 루트 디렉토리 아래 buildNumber 디렉토리에 저장됩니다.
  • optional: 가져올 아티팩트가 없는 경우 처리 방법을 지정합니다. 이 옵션을 true로 설정하면, 가져올 아티팩트가 없는 경우 무시합니다. 이 옵션을 false로 설정하면, 가져올 아티팩트가 없는 경우 빌드가 실패합니다.
  • parameters: 가져올 빌드에 전달할 매개변수를 지정합니다. 이 옵션을 사용하면 가져올 빌드에서 정의된 매개변수를 사용할 수 있습니다.
  • resultVariableSuffix: 가져온 아티팩트의 변수 접미사를 지정합니다.
  • selector: 가져올 아티팩트를 선택하는 방법을 지정합니다

 

 

Artifact 테스트

archiveArtifacts{} 구문과 copyArtifacts{} 구문을 사용하여 테스트를 진행해봅시다. 우선 Golang 프로젝트의 패키지와 바이너리 파일을 저장하기 위해 vendor 디렉토리와 bin 디렉토리의 모든 파일을 저장하도록 설정하도록 하겠습니다.


'vendor/**, bin/**' 디렉토리를 지정하고 옵션을 통해 빌드가 성공했을 때만 Artifact를 저장하고, 생성된 Artifact가 없을 때에도 저장하고, fingerprint를 생성하여 Artifact를 구분할 수 있도록 설정하였습니다.

archiveArtifacts artifacts: 'vendor/**, bin/**', allowEmptyArchive: true, onlyIfSuccessful: true, fingerprint: true

 

 

이제 저장된 Artifact를 복사하여 사용하기 위해 아래와 같이 코드를 구성하였습니다.
pipeline-project-name 이름으로 저장된 빌드의 Artifact를 설정하고, 동일하게 'vendor/**, bin/**' 디렉토리를 지정하였습니다. 복사하는 Artifact는 build/ 디렉토리에 저장되도록 구성하였으며 복사할 Artifact가 없더라도 빌드가 실패하지 않도록 설정하였습니다.

copyArtifacts(
    projectName: 'pipeline-project-name',
    filter: 'vendor/**, bin/**',
    target: 'build/.',
    optional: true
)

 

 

테스트 코드 작성 후 빌드를 실행해보겠습니다.
빌드 완료 후 해당하는 빌드의 Workspace를 확인하면 아래와 같이 vendor 디렉토리와 bin 디렉토리의 파일을 확인하실 수 잇습니다.

 

 

Artifact 관리

Artifact를 계속 Jenkins에 저장할 수 없기 때문에 관리 정책을 추가할 수 있습니다. Jenkins 관리 웹 페이지에서는 pipeline -> Configuration -> General 설정에서 오래된 빌드 삭제 기능을 설정할 수 있습니다.

 

 

pipeline의 코드 상으로는 buildDiscarder를 사용하여 빌드를 자동으로 삭제하거나 유지하기위해 사용됩니다.

pipeline {
    options {
        buildDiscarder(logRotator(optional))
    }
}
  • numToKeepStr : 유지할 빌드의 수
  • artifactNumToKeepStr : 빌드 아티팩트(컴파일된 바이너리, 테스트 결과 등)의 유지할 개수
  • daysToKeepStr : 빌드 로그를 유지할 일수
  • artifactDaysToKeepStr : 빌드 아티팩트를 유지할 일수

 

예시)

buildDiscarder(logRotator(daysToKeepStr: '30'))
buildDiscarder(logRotator(numToKeepStr: '20', artifactNumToKeepStr: '5'))

 

 

 

지금까지 Jenkins 에서는 Artifact 플러그인 기능을 사용하여 생성된 Artifact를 저장, 복사, 관리하는 방법을 알아보았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

[Reference]

Windows Server 2019 WSL 설치하기

기본 Windows OS가 아닌 서버 용도인 Windows Server 2019에 WSL을 설치하는 방법을 알아봅시다.

 

 

관리자 권한으로 PowerShell을 실행하여 아래 명령어를 입력하여 "Linux용 Windows 하위 시스템" 기능을 사용할 수 있도록 합니다.

> Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux

실행 완료 후 서버 OS 재시작 작업을 진행합니다.

 

 

아래 배포판 다운로드 링크를 통해 설치하고자하는 Linux 배포판을 다운로드 받습니다.
https://learn.microsoft.com/ko-kr/windows/wsl/install-manual#downloading-distributions

 

 

다운로드 받은 배포판은 아래와 같이 압축 해제 후 설치하고자 하는 appx 파일을 확인할 수 있습니다.

> Rename-Item .\Ubuntu2204-221101.AppxBundle .\Ubuntu.zip
> Expand-Archive .\Ubuntu.zip .\Ubuntu
> cd .\Ubuntu
> ls

 

아랭 명령어로는 PowerShell 에서 직접 다운로드 받고자 하는 패키지를 다운로드 받으실 수 있습니다.

> Invoke-WebRequest -Uri https://aka.ms/wslubuntu2004 -OutFile Ubuntu.appx -UseBasicParsing

 

 

다운로드 받은 appx 파일을 Add-AppxPackage 명령어로 설치합니다.

> Add-AppPackage .\Ubuntu_2004.2021.825.0_x64.appx

 

 

설치를 진행하면 아래와 같이 설치 중임을 확인하실 수 있습니다.

 

설치가 완료된 후 appx 파일을 압축 해제하면 WSL 환경에서 실행할 수 있는 ubuntu.exe 파일을 확인하실 수 있습니다. 

> Rename-Item .\Ubuntu_2004.2021.825.0_x64.appx .\Ubuntu.zip
> Expand-Archive .\Ubuntu.zip .\Ubuntu
> cd .\Ubuntu
> ls

 

exe 파일을 실행하여 WSL 환경에서 사용할 OS를 실행합니다.

exe 파일 실행 시 아래와 같이 Ubuntu Installing 진행을 확인하실 수 있습니다.

 

설치 완료 후에는 계정을 생성 후 사용하시면 됩니다.

 

지금까지 Windows Server 2019에 WSL을 설치하는 방법을 알아보았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

 

 

[Reference]

 

[Jenkins] Cannot run program git.exe 에러

Window 환경의 Jenkins에서 Cannot run program git.exe 에러 발생 시 해결하는 방법입니다.

 

 

Jenkins에서 Pipeline 실행 시 git.exe를 실행하지 못할 경우 아래와 같이 에러가 발생합니다.

 

 

git.exe 파일의 경로를 찾지 못하는 것으로 Jenkins 웹 관리자 페이지에서 Jenkins 관리 -> Global Tool Configuration 설정을 통해 git.exe 경로를 추가해줍니다. Git installations 설정 중 Path to Git executable 설정을 Window 환경에 맞는 값으로 설정합니다.

 

 

설정 저장 후 다시 Pipeline 실행 시 정상적으로 git.exe를 실행하는 것을 확인하실 수 있습니다.

 

 

 

지금까지 Cannot run program git.exe 에러 발생 시 해결하는 방법을 알아보았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

[Jenkins] Jenkins Window 환경에서 설치하기

Jenkins를 Window 환경에서 설치하는 방법을 알아봅시다.

 

 

설치 파일 다운로드

Jenkins 공식 페이지에서 Windows 전용 Jenkins 설치 파일을 다운로드 합니다.

https://www.jenkins.io/download/

 

 

설치 파일 실행

설치 파일 jenkins.msi 파일을 실행합니다.

 

설치 경로를 지정합니다. 저는 "D:" 드라이브에 저장하도록 설정하였습니다.

 

 

Logon Type을 LocalSystem을 사용하도록 설정합니다.

 

 

사용할 포트를 설정합니다.

전 기본 포트인 "8080"을 사용하도록 설정하였으며 Test Port 버튼 클링 후 Next로 넘어갈 수 있습니다.

 

 

Java JDK 경로를 지정합니다. 저는 JDK를 "D:" 드라이브에 설치하였으므로 해당 경로를 설정하였습니다.

 

 

Jenkins 2.387.2 버전에서는 JDK 버전이 11버전 또는 17버전을 설정하도록 나와있으며 다른 버전 선택 시 아래와 같이 나올 수 있습니다.

 

 

Custom Setup 을 설정 후 설치를 진행합니다.

 

 

Jenkins 설치를 완료하면 웹 브라우저를 통해 서버 IP와 설정한 포트로 접속합니다.


최초 패스워드는 화면에 표시되는 경로를 통해 확인 가능합니다.

 

 

기본 플러그인을 설치하고 계정을 생성하는 것으로 설치를 마무리합니다.

 

설치 완료 후 설정한 계정을 통해 jenkins를 사용할 수 있습니다.

 

지금까지 Jenkins를 Window 환경에서 설치하는 방법을 알았습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

 

 

 

[Reference]

[Jenkins] Jenkins GitLab 프로젝트 연동하기 03

GitLab 프로젝트 연동과 간단히 Pipeline을 동작하는 설정을 완료하였고,
이제 WebHook을 연동하여 Commit 등의 Event 시 자동으로 Jenkins Pipeline이 동작되도록 설정해봅시다.

 

 

 

WebHook 설정

설정하고자하는 Pipeline의 상세 설정의 Build Triggers 설정합니다.


Trigger 받고자하는 Event를 선택하고 자동으로 생성되는 WebHook URL을 복사해둡니다.

 

 

하단의 고급 버튼을 클릭하여 상세 설정을 확인합니다.

 

 

Secret token 항목에서 Generate 버튼을 클릭하여 GitLab WebHook과 연동할 token 값을 생성합니다.
해당 token 값은 이후에 사용해야하므로 복사해둡니다.

설정을 완료하면 Pipeline 설정을 저장합니다.

 

 

 

이제 GitLab 프로젝트에서 WebHook 설정을 추가해봅시다.
GitLab 프로젝트 Settings -> Webhooks 메뉴를 클릭합니다.

아까 복사해둔 WebHook URL 값과 Secret token 값을 URL, Secret token 항목에 붙여 넣습니다.

그리고 사용하고자 하는 Trigger Event를 선택해주시면 됩니다.

 

 

WebHook 설정을 추가하면 아래와 같이 추가된 설정을 확인하실 수 있습니다.

 

Test를 통해 WebHook이 정상적으로 연결되었는지 확인합니다.

 

정상적으로 WebHook 설정이 완료되었으면 상단에 "Hook executed successfully: HTTP 200" 메시지가 출력된 것을 확인하실 수 있습니다.

 

 

WebHook 테스트

WebHook 연동 설정이 완료되었으므로 해당 프로젝트에서 소스 코드 수정 및 Commit 후 자동으로 Pipeline이 동작하는지 확인합니다. Pipeline 관리 페이지를 열어둔 상태에서 프로젝트에 Commit을 해봅니다.
WebHook 연동 설정을 통해 자동으로 Pipeline 빌드가 실행됩니다.

 

Pipeline 빌드가 완료되면 해당하는 Build ID 클릭 후 아래와 같이 빌드 상태를 확인할 수 있습니다.

 

 

지금까지 Jenkins에서 GitLab 프로젝트와의 연동과 WebHook을 통한 Pipeline 자동화 구축 작업을 완료하였습니다...! 끝...!

 

 

유익하게 보셨다면 공감을 눌러주고, 댓글로 의견을 공유해 남겨주시면 감사하겠습니다!

+ Recent posts