AI 기술이 발전하면서, 이제 누구나 자신만의 딥러닝 모델을 만들 수 있는 시대가 되었습니다. 하지만 여전히 많은 사람들에게 AI 모델 학습은 높은 기술 장벽으로 다가옵니다.
이러한 어려움을 해결하기 위해 오픈소스 딥러닝 프레임워크 OTX (OpenVINO™ Training Extensions)가 등장했습니다.
OTX는 AI 모델을 학습, 커스터마이징, 배포까지 손쉽게 진행할 수 있도록 도와주는 low-code AI 툴킷입니다. 특히 분류(Classification), 객체 탐지(Object Detection), 세그멘테이션(Segmentation) 등 컴퓨터 비전 작업에 최적화되어 있으며, 모델 학습부터 최적화된 OpenVINO 모델 추출까지 단 몇 줄의 CLI 명령어만으로 가능하게 설계되었습니다.
otx train --task {task} --data_root {데이터path} --work_dir {출력경로}
명령어 하나로 학습이 시작되며, 복잡한 설정 없이 바로 결과를 얻을 수 있습니다.OTX는 복잡한 개발 과정을 단순화하고, 시간과 자원 절약을 가능하게 합니다. 또한, 전문적인 딥러닝 지식이 없는 사람들에게도 효율적이고 직관적인 도구를 제공하여, 누구나 쉽게 AI 모델을 개발하고 OpenVINO로 최적화된 모델을 만들 수 있습니다. 이제 더 이상 복잡한 코드 작성 없이, 모델 학습과 최적화 작업을 손쉽게 할 수 있습니다.
복잡한 딥러닝 모델 코드 없이, 명령어 한 줄로 모델을 학습시킬 수 있습니다.
otx train --data_root {data path}
이 명령어만 입력하면 ResNet50, Vision Transformer (ViT) 등 고성능 모델을 활용해 데이터를 학습시킬 수 있습니다.
또한 CLI도 간단하지만, API도 매우 간단합니다.
from otx.engine import Engine
engine = Engine(data_root="{data path}")
engine.train()
학습이 끝난 모델은 otx export 명령어 하나로 OpenVINO 형식으로 변환되어, 최적화된 추론 속도를 제공합니다.
otx export --work_dir {output_dir}
적은 양의 데이터로도 고성능 모델을 학습할 수 있는 준지도 학습(Semi-supervised Learning)과 클래스 증강(Class Incremental) 기능을 지원합니다.
→ "데이터가 부족하더라도 걱정 마세요. OTX는 적은 데이터 환경에서도 강력한 성능을 제공합니다."
torchvision, Hugging Face와 같은 다양한 딥러닝 프레임워크 모델을 통합적으로 활용할 수 있습니다.
otx train --data_root {data path} --task multi_class_cls --work_dir {output_dir}
3. OpenVINO 모델 변환
otx export --work_dir {output_dir}
4. 추론 실행 (OpenVINO Inference Engine 사용)
변환된 모델은 OpenVINO 툴킷과 함께 손쉽게 배포 및 추론에 활용할 수 있습니다.
OTX는 단순히 AI 모델 학습을 돕는 도구가 아니라, 데이터 준비 → 모델 학습 → 최적화 모델 변환까지 한 번에 처리할 수 있는 올인원 솔루션입니다.
특히, 딥러닝 모델 개발 경험이 없는 초보자나 데이터 과학자도 몇 줄의 CLI 명령어로 전문가 수준의 결과를 얻을 수 있습니다.
GitHub: [github 주소](https://github.com/openvinotoolkit/training_extensions)
공식 문서: OTX 문서
GAN (2) - 3D GAN (6) | 2020.09.25 |
---|---|
GAN (1) - 생성적 적대 신경망 소개 (0) | 2020.09.25 |
딥러닝 (9) - [RL2] 신경망 네트워크를 이용한 MountainCar 해결 (3) | 2020.03.25 |
딥러닝 (8) - [RL1] 강화학습(Reinforcement Learning)이란? (0) | 2020.03.22 |
딥러닝 (7) - RNN(Recurrent Neural Network), LSTM, GRU (11) | 2020.02.24 |