체인저
Chainer원본 작성자 | 도쿠이 세이야 |
---|---|
개발자 | 커뮤니티, 선호 네트워크, Inc. |
초기 릴리즈 | 2015년 6월 9일[1][2] 전 ) |
안정적 해제 | 7.7.0[3] / 2020년 7월 30일; |
리포지토리 | |
기록 위치 | 파이톤 |
플랫폼 | 교차 플랫폼 |
다음에서 사용 가능 | 파이톤 |
유형 | 딥러닝 라이브러리 |
면허증 | MIT |
웹사이트 | chainer |
체인어는 NumPy와 CuPython 라이브러리 위에 순수하게 Python으로 쓰여진 오픈 소스 딥 러닝 프레임워크다.이번 개발은 일본 벤처기업인 Preferred Networks가 IBM, 인텔, 마이크로소프트, 엔비디아와 제휴해 주도하고 있다.[4][5][6][7]
체이너는 대규모 시스템에서의 성능은 물론 '디펜 바이런(define-by-run)' 방식의 조기 채택이 눈에 띈다.[1]첫 번째 버전은 2015년 6월에 발매되었고 이후 일본에서 큰 인기를 얻었다.[1][2]나아가 2017년에는 KDnuggets가 Python 프로젝트를 학습하는 10대 오픈 소스 기계에 이름을 올렸다.[8]
2019년 12월, Preferenced Networks는 개발 노력의 체인저에서 파이토치로의 전환을 발표했으며, v7을 출시한 후에만 유지보수 패치를 제공할 예정이다.[9]
실행별 정의
체인저는 실행별 정의 접근법을 도입한 최초의 딥러닝 프레임워크였다.[10][11]네트워크를 훈련시키는 전통적인 절차는 두 단계로 진행되었다: 네트워크에서 수학적 연산(매트릭스 곱하기와 비선형 활성화 등) 사이의 고정 연결을 정의하고, 그리고 나서 실제 훈련 계산을 실행한다.이것을 정의 및 실행 또는 정적 그래프 접근법이라고 한다.Theano와 TensorFlow는 이러한 접근법을 취했던 주목할 만한 프레임워크 중 하나이다.대조적으로, 실행별 또는 동적 그래픽 접근방식에서, 훈련을 시작할 때 네트워크에서의 연결은 결정되지 않는다.실제 계산이 수행됨에 따라 훈련 중에 네트워크가 결정된다.
이 접근법의 장점 중 하나는 직관적이고 유연하다는 것이다.[12]네트워크가 조건 및 루프와 같은 복잡한 제어 흐름을 가지고 있는 경우, 정의 및 실행 접근법에서 그러한 구성을 위해 특별히 설계된 운영이 필요하다.반면에, 실행별 정의 접근법에서는 그러한 흐름을 설명하기 위해 문장과 루프용과 같은 프로그래밍 언어의 기본 구조를 사용할 수 있다.이러한 유연성은 반복적인 신경망을 구현하는데 특히 유용하다.[13][14]
또 다른 장점은 디버깅의 용이성이다.[12]정의 및 실행 접근법에서는, 훈련 계산에서 에러(숫자 오류 등)가 발생한 경우, 네트워크를 정의하기 위해 작성한 코드와 에러의 실제 위치가 분리되어 있기 때문에, 결함을 점검하기 어려운 경우가 많다.실행별 정의 방식에서는 언어 내장 디버거로 계산을 일시 중단하고 네트워크 코드에 흐르는 데이터를 검사하면 된다.
Define by run은 체인저가 소개한 이후 인기를 얻었으며, 현재는 파이토치[15], 텐서플로우 등 다른 많은 프레임워크에서 구현되고 있다.[12]
확장 라이브러리
체인저에는 체인저MN, 체인저RL, 체인저CV 및 체인저 4개의 확장 라이브러리가 있다.UI. 체인저MN은 체인저가 다른 딥러닝 프레임워크보다 훨씬 빠른 성능을 가진 여러 GPU에서 사용될 수 있도록 한다.[1]1024GPU에서 체인저를 구동하는 슈퍼컴퓨터는 레스넷-50 네트워크에서 90에 달하는 ImageNet 데이터 세트를 15분 만에 처리해 페이스북이 보유한 종전 기록보다 4배 빠른 속도다.[16][17]ChainerRL에는 아트 딥보강 학습 알고리즘과 Chainer가 추가됨UI는 관리 및 시각화 툴이다.
적용들
체인저는 최소한의 사용자 입력만으로 흑백 자동 컬러화, 라인 전용, 드래프트 도면을 하는 서비스인 페인트체인저의 프레임워크로 사용된다.[18][19]
참고 항목
참조
- ^ a b c d "Big-in-Japan AI code 'Chainer' shows how Intel will gun for GPUs". The Register. 2017-04-07. Retrieved 2017-12-24.
- ^ a b "Deep Learning のフレームワーク Chainer を公開しました" (in Japanese). 2015-06-09. Retrieved 2017-12-24.
- ^ "Release 7.7.0". 30 July 2020. Retrieved 31 July 2020.
- ^ "Chainer Homepage". Retrieved 2017-12-24.
- ^ "IBM Wants to be "Red Hat" of Deep Learning". HPCwire. 2017-01-26. Retrieved 2017-09-08.
- ^ "Intel Collaborating with Preferred Networks in Japan on Deep Learning". 2017-04-06. Retrieved 2017-12-24.
- ^ "Microsoft partners with Preferred Networks to bring Chainer deep learning technology to Azure - MSPoweruser". MSPoweruser. 2017-05-23. Retrieved 2017-09-08.
- ^ "Top 20 Python Machine Learning Open Source Projects". KDnuggets. 2017-11-24.
- ^ "Preferred Networks Migrates its Deep Learning Research Platform to PyTorch". Preferred Networks, Inc. 2019-12-05. Retrieved 2019-12-27.
- ^ Tokui, Seiya; et al. (2015). "Chainer: a next-generation open source framework for deep learning". 29th Annual Conference on Neural Information Processing Systems (NIPS). 5.
- ^ Shimada, Naoki (September 14, 2017). Deep Learning with Chainer. Gijutsu-Hyohron. p. 61. ISBN 4774191868.
- ^ a b c "Eager Execution: An imperative, define-by-run interface to TensorFlow". Google Research Blog.
- ^ "Deep Learning With Dynamic Computation Graphs (ICLR 2017)". Metadata.
- ^ Hido, Shohei (8 November 2016). "Complex neural networks made easy by Chainer". O'Reilly Media. Retrieved 26 June 2018.
- ^ Perez, Carlos E. (20 January 2017). "PyTorch, Dynamic Computational Graphs and Modular Deep Learning". Medium.
- ^ "Extremely Large Minibatch SGD: Training ResNet-50 on ImageNet in 15 Minutes" (pdf). Retrieved 2017-12-24.
- ^ Greene, Tristan (20 November 2017). "Facebook's nerds bested by Japan's in the race to train AI". The Next Web. Retrieved 24 November 2017.
- ^ Know, Now You (2017-02-15). "This neural network-based software will add colour to your drawings for free". Techly. Retrieved 2017-09-08.
- ^ "Drawing app "pixiv Sketch" and automatic coloring service "PaintsChainer" collaborate to provide a new function for automatic coloring of illustrations!". 2017-05-24. Retrieved 2017-12-24.