Ceph(소프트웨어)

Ceph (software)
Ceph 스토리지
Ceph logo.png
원저작자잉크탱크 스토리지(Sage Weil, Yehuda Sadeh Weinraub, Gregory Farnum, Josh Durgin, Samuel Just, Wido den Hollander)
개발자Red Hat, Intel, CERN, Cisco, Fujitsu, SanDisk, CanonicalSUSE[1]
안정된 릴리스
16.2.6 '태평양'[2] / 2021년 9월 16일; 10개월 전(2021-09-16)
저장소
기입처C++, Python[3]
운영 체제Linux, FreeBSD[4]
유형분산 객체 저장소
면허증.LGPLv2.1[5]
웹 사이트ceph.io

Ceph( / ssff/로 발음)는 단일 분산 컴퓨터[6] 클러스터에 객체 스토리지를 구현하고 객체, 블록 및 파일 수준의 스토리지를 위한 3-in-1 인터페이스를 제공하는 오픈 소스 소프트웨어 정의 스토리지 플랫폼입니다.Ceph는 주로 단일 장애 지점 없이 완전히 분산된 운영, 엑사바이트 수준까지 확장 가능하며 자유롭게 사용할 수 있는 것을 목표로 합니다.버전 12 이후 Ceph는 다른 파일 시스템에 의존하지 않고 자체 스토리지 백엔드 BlueStore를 사용하여 HDD 및 SSD를 직접 관리할 수 있으며 POSIX 파일 시스템을 완전히 안정적으로 노출할 수 있습니다.

Ceph는 데이터를 복제하여 폴트 [7]톨러런스로 만듭니다.일반 하드웨어와 이더넷 IP를 사용하여 특정 하드웨어 지원이 필요하지 않습니다.Ceph의 시스템은 레플리케이션, 소거 부호화, 스냅샷, 스토리지 클로닝 등의 기술을 통해 재해 복구 및 데이터 용장성을 제공합니다.설계 결과, 시스템은 자가 복구와 자가 관리를 모두 지원하므로 관리 시간과 기타 비용을 최소화할 수 있습니다.

이러한 방식으로 관리자는 사일로를 방지하고 공통 관리 프레임워크 내에서 스토리지를 수집하는 단일 통합 시스템을 구축할 수 있습니다.Ceph는 여러 스토리지 사용 사례를 통합하고 리소스 활용률을 개선합니다.또한 조직이 필요에 따라 서버를 배포할 수도 있습니다.

설계.

Ceph 내부조직의[8]: 4 개요

Ceph는 5종류의 데몬[8]사용합니다.

  • 클러스터 모니터(ceph-mon)을 사용하여 활성화 및 장애가 발생한 클러스터 노드, 클러스터 설정 및 데이터 배치 및 글로벌클러스터 상태에 대한 정보를 추적합니다.
  • 직접 저널링된 디스크 스토리지를 사용하는 객체 스토리지 디바이스(ceph-osd) (v12.x 릴리스가 [9]파일 시스템을 사용하는 FileStore를[10] 대체하므로 BlueStore라는 이름이 지정됨)
  • CephFS 파일 시스템 inode디렉토리에 대한 액세스를 캐시 및 브로커하는 메타데이터 서버(ceph-mds).
  • 객체 스토리지 레이어Amazon S3 또는 OpenStack Swift API와 호환되는 인터페이스로 공개하는 HTTP 게이트웨이(ceph-rgw)
  • 클러스터 감시, 부기, 유지보수 작업을 수행하고 외부 감시 시스템 및 관리(밸런서, 대시보드, Prometheus,[11] Zabbix 플러그인 등)에 접속하는 매니저(ceph-mgr)

이 모든 것이 완전히 분산되어 있으며 동일한 서버 집합에서 실행될 수 있습니다.요구 사항이 다른 클라이언트는 해당 [12]클라이언트의 다른 서브셋과 직접 대화할 수 있습니다.

Ceph는 RAID0가 여러 하드 드라이브에 파티션을 스트라이핑하는 과 마찬가지로 스루풋을 높이기 위해 여러 노드에 개별 파일을 스트라이핑합니다.자주 액세스하는 개체를 더 많은 [citation needed]노드에 복제하는 적응형 로드 밸런싱이 지원됩니다.2017년 9월 현재 BlueStore는 프로덕션 환경에서 [13]기본 스토리지 유형으로 권장되고 있습니다. Ceph는 파일스토어 백엔드보다 뛰어난 지연 시간과 구성성을 제공하며 추가 프로세싱 및 캐싱 계층이 포함된 파일 시스템 기반 스토리지의 단점을 방지합니다.파일스토어 백엔드는 여전히 유용하고 매우 안정적이라고 생각됩니다.XFS는 실가동 환경에서 권장되는 기본 파일 시스템 유형이었지만 Btrfs는 비실가동 환경에서 권장되었습니다.ext4 파일시스템은 RADOS 오브젝트의 최대 [14]길이에 제한이 있기 때문에 권장되지 않습니다.BlueStore를 사용하더라도 XFS는 [15]메타데이터의 작은 파티션에 사용됩니다.

오브젝트 스토리지 S3

Ceph 스토리지 플랫폼의 컴포넌트 간의 관계를 나타내는 아키텍처 다이어그램

Ceph는 분산 객체 스토리지인 BlueStore를 구현합니다.RADOS 게이트웨이(ceph-rgw)는 객체 스토리지 계층을 Amazon S3와 호환되는 인터페이스로 표시합니다.

Ceph의 S3 객체 스토리지와 관련된 용량성 디스크는 다음과 같습니다.빅데이터(데이터레이크), 백업 및 아카이브, IOT, 미디어, 비디오 녹화 등

Ceph의 소프트웨어 라이브러리는 클라이언트 애플리케이션에 신뢰성 높은 RADOS(자율 분산 객체 저장소) 객체 기반 스토리지 시스템에 직접 액세스할 수 있는 기능을 제공하며 RADOS 블록 디바이스(RBD), RADOS 게이트웨이, Ceph 파일 시스템 등 Ceph의 일부 기능을 위한 기반을 제공합니다.이렇게 하면 관리자는 스토리지 장치를 통합 시스템으로 유지 관리할 수 있으므로 데이터를 보다 쉽게 복제하고 보호할 수 있습니다.

"librados" 소프트웨어 라이브러리는 C, C++, Java, PHP Python에서 액세스를 제공합니다.또한 RADOS 게이트웨이는 오브젝트스토어를 네이티브 Amazon S3 API와 OpenStack Swift API로 표시할 수 있는 RESTful 인터페이스로 공개합니다.

블록 스토리지

Ceph의 객체 스토리지 시스템은 사용자가 Ceph를 씬 프로비저닝된 블록 장치로 마운트할 수 있도록 합니다.응용 프로그램이 블록 장치를 사용하여 Ceph에 데이터를 쓸 때 Ceph는 자동으로 데이터를 클러스터 전체에 스트라이핑하고 복제합니다.Ceph의 RADOS 블록 디바이스(RBD)는 커널 기반 가상 머신(KVM)과도 통합됩니다.

데이터베이스, 가상 머신, 데이터 분석, 인공지능, 머신 러닝 등 활용 사례를 위한 Ceph 블록 스토리지와 관련된 고속 디스크(NVMe, SSD)가 많습니다.

"Ceph-RBD"는 라이브러리 인터페이스와 CephFS 파일 시스템을 제공하는 동일한 Ceph 객체 스토리지 시스템과 인터페이스하며 블록 디바이스 이미지를 객체로 저장합니다.RBD는 라이브러리 상에 구축되어 있기 때문에 RBD는 읽기 전용 스냅샷을 포함한 라이브러리 관리자의 기능을 계승하고 스냅샷으로 복구합니다.Ceph는 클러스터 전체에 이미지를 스트라이핑하여 대형 블록 장치 이미지에 대한 읽기 액세스 성능을 향상시킵니다.

"Ceph-iSCSI"는 iSCSI 프로토콜을 말할 수 있는 모든 Microsoft Windows 및 VMWare vSphere 서버 또는 클라이언트에서 분산된 고가용성 블록 스토리지에 액세스할 수 있는 게이트웨이입니다.Ceph-iscsi 를 1 개 또는 복수의 iSCSI 게이트웨이 호스트에서 사용하면, Ceph RBD 이미지는 iSCSI 타겟에 관련 붙여진 Logical Unit(LU; 논리 유닛)으로서 사용할 수 있게 됩니다.이러한 이미지는 옵션으로 부하 분산된 고가용성 방법으로 액세스 할 수 있습니다.

Ceph-iscsi 설정은 모두 Ceph RADOS 오브젝트스토어에 저장되기 때문에 ceph-iscsi 게이트웨이 호스트는 본질적으로 영속적인 스테이트가 아니기 때문에 자유롭게 치환, 증강 또는 축소할 수 있습니다.따라서 Ceph Storage를 사용하면 고객은 범용 하드웨어 및 완전히 오픈 소스 플랫폼에서 진정한 분산형 고가용성(HA) 내장해성 및 자가 복구 엔터프라이즈 스토리지 기술을 실행할 수 있습니다.

블록 디바이스는 Openshift, OpenStack, Kubernetes, OpenNebula, Ganeti, Apache CloudStack 및 Proxmox Virtual Environment와 같은 가상화 플랫폼에서 가상 머신에 블록 스토리지를 제공하여 가상화할 수 있습니다.

파일 시스템 스토리지

Ceph의 파일 시스템(CephFS)은 객체 스토리지 및 블록 디바이스 인터페이스를 제공하는 동일한 객체 스토리지 시스템 상에서 실행됩니다.Ceph 메타데이터 서버 클러스터는 파일시스템의 디렉토리와 파일명을 RADOS 클러스터 내에 저장된 오브젝트에 매핑하는 서비스를 제공합니다.메타데이터 서버 클러스터는 확장 또는 축소할 수 있으며 파일 시스템을 동적으로 재조정하여 클러스터 호스트 간에 데이터를 균등하게 분산할 수 있습니다.이렇게 하면 클러스터 내의 특정 호스트에서 높은 성능을 보장하고 과도한 로드를 방지할 수 있습니다.

클라이언트는 Linux 커널 클라이언트를 사용하여 POSIX 호환 파일시스템을 마운트합니다.오래된 FUSE 기반 클라이언트도 사용할 수 있습니다.서버는 일반 Unix 데몬으로 실행됩니다.

Ceph의 파일 저장소는 로그 수집, 메시징 및 파일 저장과 관련된 경우가 많습니다.

역사

Ceph는 Scott A 교수의 조언을 받은 박사학위 [16]논문을 위해 Sage Weil에 의해 처음 만들어졌다.Jack Baskin School of Engineering School of California, Santa Cruz(UCSC)에서 Los Alamos National Laboratory(LANL), Sandia National Laboratory(SNL) 및 Livermore Laboratory(LL)를 포함한 고급 시뮬레이션 및 컴퓨팅 프로그램(ASC)의 후원Ceph의 일부가 된 첫 번째 코드 행은 2004년 Sage Weil이 LLNL에서 여름 인턴십을 하면서 확장 가능한 파일 시스템 메타데이터 관리(현재는 Ceph의 [18]MDS로 알려져 있음)에 대해 기술한 것입니다.2005년, Scott A가 시작한 여름 프로젝트의 일환으로.Carlos Maltzahn이 이끄는 Sage Weil은 Ceph라는 이름을 채택한 완전한 기능을 갖춘 파일 시스템 프로토타입을 만들었습니다.Ceph는 2006년 11월 USENIX OSDI[19] 2006과 SC'06에서 [20]가지 프레젠테이션을 통해 Sage Weil로 데뷔했습니다.

2007년 가을 졸업 후, Weil은 Ceph에 풀타임으로 계속 임해, 핵심 개발 팀은 Yehuda Sadeh Weinraub와 Gregory Farnum으로 확대했습니다.2010년 3월 19일, Linus Torvalds는 Ceph 클라이언트를 2010년 5월 16일에 출시된 Linux 커널 버전 2.6.34로[21][22] 통합했습니다.2012년 Weil은 Ceph에 대한 [23][24]프로페셔널 서비스와 지원을 위한 Inktank Storage를 만들었습니다.

2014년 4월 Red Hat은 Inktank를 인수하여 Ceph 개발의 대부분을 사내로 가져와서 지원(핫라인) 및 지속적인 유지보수(신규 버전)[25]가 가능한 기업용 생산 버전으로 만들었습니다.

2015년 10월에는 커뮤니티가 오픈소스 소프트웨어 정의 스토리지 기술의 방향을 모색할 수 있도록 지원하기 위해 Ceph 커뮤니티 자문위원회를 구성하였습니다.Charter Advisory Board에는 Red Hat, Intel, Canonical, CERN, Cisco, Fujitsu, SanDisk 및 SUSE 개인 [26]등 Ceph 프로젝트에 전념하는 글로벌 IT 조직의 Ceph 커뮤니티 구성원이 포함됩니다.

2018년 11월 Linux Foundation은 Ceph 커뮤니티 Advisory Board의 후임으로 Ceph Foundation을 출범시켰습니다.Ceph Foundation의 창립 멤버로는 Amihan, Canical, China Mobile, Digital Ocean, Intel, OVH, PropeteStor Data Services, Red Hat, SoftIron, SUSE, Western Digital, XSKY Data Technology, [27]ZTE 등이 있습니다.

2021년 3월, SUSE는 Longhorn을 [28]위해 Ceph를 통합한 엔터프라이즈 스토리지 제품을 중단했습니다.이전의 엔터프라이즈 스토리지 웹 사이트는, 「SUSE는 전략적인 SUSE 엔터프라이즈 스토리지 고객에게의 서비스 제공에 스토리지 노력을 집중하고 있어, 더 이상 SUSE 엔터프라이즈 스토리지를 적극적으로 판매하지 않습니다."[29]

릴리스 이력

릴리스 이력
이름. 풀어주다 초판 종료
인생
마일스톤
아르고나우트 이전 버전, 더 이상 유지 관리되지 않음: 0.48 2012년 7월 3일 첫 번째 주요 '안정적' 출시
밥테일 이전 버전, 더 이상 유지 보수되지 않음: 2013년 1월 1일
오징어 이전 버전, 더 이상 유지 보수되지 않음: 0.61 2013년 5월 7일 Ceph-deploy는 안정적이다
만두 이전 버전, 더 이상 유지 보수되지 않음: 0.67 2013년 8월 14일 2015년 5월 네임스페이스, 지역, REST API 모니터링
황제 이전 버전, 더 이상 유지 보수되지 않음: 0.72 2013년 11월 9일 2014년 5월 Radosgw의 멀티레이어 복제
반딧불 이전 버전, 더 이상 유지 관리 안 함: 0.80 2014년 5월 7일 2016년 4월 삭제 코딩, 캐시 계층화, 프라이머리 어피니티, 키/값 OSD 백엔드(실험용), 스탠드아론의 radosgw(실험용)
거대한 이전 버전, 더 이상 유지 보수되지 않음: 0.87 2014년 10월 29일 2015년 4월
망치 이전 버전, 더 이상 유지 보수되지 않음: 0.94 2015년 4월 7일 2017년 8월
인페르나리스 이전 버전, 더 이상 유지 보수되지 않음: 9.2.0 2015년 11월 6일 2016년 4월
보석 이전 버전, 더 이상 유지 보수되지 않음: 10.2.0 2016년 4월 21일 2018-06-01 안정적인 CephFS, 블루스토어라는 이름의 실험용 RADOS 백엔드
크라켄 이전 버전, 더 이상 유지 보수되지 않음: 11.2.0 2017년 1월 20일 2017-08-01 Blue Store는 안정적입니다.
발광 이전 버전, 유지 보수 불필요: 12.2.0 2017년 8월 29일 2020-03-01
모방하다 이전 버전, 더 이상 유지 보수되지 않음: 13.2.0 2018년 6월 1일 2020-07-22 스냅샷은 안정적이고 Beast는 안정적입니다.
노틸러스 이전 버전, 더 이상 유지 보수되지 않음: 14.2.0 2019년 3월 19일 2021-06-01
문어. 이전 버전, 아직 유지 보수: 15.2.0 2020년 3월 23일 2022-06-01
태평양의 이전 버전이지만 유지 보수: 16.2.0 2021년[30] 3월 31일 2023-06-01
퀸시 현재 안정적인 버전: 17.2.0 2022년[31] 4월 19일 2024-06-01
범례:
구버전
이전 버전, 아직 유지 관리됨
최신 버전
최신 프리뷰 버전
향후 출시

어원학

"Ceph"라는 이름은 문어를 포함하는 연체동물 분류인 "Cephalopod"의 줄임말이다.(로고로 강조된) 이름은 문어의 고도의 병렬 동작을 나타내며 파일 시스템을 UCSC의 [8]바나나 슬러그 마스코트인 "Sammy"와 연관시키기 위해 선택되었습니다.두족류와 바나나 민달팽이 모두 연체동물이다.

중대한 사고

2022년 freedesktop.org SSD 장애

2022년 6월 12일 정오경, 사용자들은 freedesktop.org GitLab을 이용할 수 없다는 것을 알게 되었다.SSD 드라이브 2개가 동시에 고장나 성능 저하 모드로 전환되어 수동 [32][33]복구가 필요한 것으로 나타났습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ "Ceph Community Forms Advisory Board". 2015-10-28. Archived from the original on 2019-01-29. Retrieved 2016-01-20.
  2. ^ "v16.2.6 Octopus released".
  3. ^ "GitHub Repository". GitHub.
  4. ^ "FreeBSD Quarterly Status Report".
  5. ^ "LGPL2.1 license file in the Ceph sources". GitHub. 2014-10-24. Retrieved 2014-10-24.
  6. ^ Nicolas, Philippe (2016-07-15). "The History Boys: Object storage ... from the beginning". The Register.
  7. ^ Jeremy Andrews (2007-11-15). "Ceph Distributed Network File System". KernelTrap. Archived from the original on 2007-11-17. Retrieved 2007-11-15.
  8. ^ a b c M. Tim Jones (2010-06-04). "Ceph: A Linux petabyte-scale distributed file system" (PDF). IBM. Retrieved 2014-12-03.
  9. ^ "BlueStore". Ceph. Retrieved 2017-09-29.
  10. ^ "BlueStore Migration". Retrieved 2020-04-12.
  11. ^ "Ceph Manager Daemon — Ceph Documentation". docs.ceph.com. Archived from the original on June 6, 2018. Retrieved 2019-01-31. 아카이브 링크 2020년 6월 19일 Wayback Machine에서 아카이브
  12. ^ Jake Edge (2007-11-14). "The Ceph filesystem". LWN.net.
  13. ^ Sage Weil (2017-08-29). "v12.2.0 Luminous Released". Ceph Blog.
  14. ^ "Hard Disk and File System Recommendations". ceph.com. Archived from the original on 2017-07-14. Retrieved 2017-06-26.
  15. ^ "BlueStore Config Reference". Retrieved April 12, 2020.
  16. ^ Sage Weil (2007-12-01). "Ceph: Reliable, Scalable, and High-Performance Distributed Storage" (PDF). University of California, Santa Cruz. Archived from the original (PDF) on 2017-07-06. Retrieved 2017-03-11.
  17. ^ Gary Grider (2004-05-01). "The ASCI/DOD Scalable I/O History and Strategy" (PDF). University of Minnesota. Retrieved 2019-07-17.
  18. ^ 페타바이트급 파일 시스템용 동적 메타데이터 관리, SA Weil, KT Pollock, SA Brandt, EL Miller, Proc.2004년 11월, 펜실베이니아주 피츠버그, SC'04
  19. ^ 「Ceph:확장성이 뛰어난 고성능 분산 파일 시스템」SA Weil, SA Brandt, EL Miller, DDE Long, C Maltzahn, Proc.OSDI, 시애틀, 워싱턴, 2006년 11월
  20. ^ CRUSH: 리플리케이션 데이터의 제어, 확장, 분산 배치, SA Weil, SA Brandt, EL Miller, DDE Long, C Maltzahn, SC'06, Tampa, FL, 2006년 11월
  21. ^ Sage Weil (2010-02-19). "Client merged for 2.6.34". ceph.newdream.net.
  22. ^ Tim Stephens (2010-05-20). "New version of Linux OS includes Ceph file system developed at UCSC". news.ucsc.edu.
  23. ^ Bryan Bogensberger (2012-05-03). "And It All Comes Together". Inktank Blog. Archived from the original on 2012-07-19. Retrieved 2012-07-10.
  24. ^ Joseph F. Kovar (July 10, 2012). "The 10 Coolest Storage Startups Of 2012 (So Far)". CRN. Retrieved July 19, 2013.
  25. ^ Red Hat Inc (2014-04-30). "Red Hat to Acquire Inktank, Provider of Ceph". Red Hat. Retrieved 2014-08-19.
  26. ^ "Ceph Community Forms Advisory Board". 2015-10-28. Archived from the original on 2019-01-29. Retrieved 2016-01-20.
  27. ^ "The Linux Foundation Launches Ceph Foundation To Advance Open Source Storage". 2018-11-12.
  28. ^ "SUSE says tschüss to Ceph-based enterprise storage product – it's Rancher's Longhorn from here on out".
  29. ^ "SUSE Enterprise Software-Defined Storage".
  30. ^ Ceph.io - v16.2.0 Pacific 출시
  31. ^ Ceph.io - v17.2.0 Quincy 출시
  32. ^ "IRC Logs of #freedesktop on irc.freenode.net for 2022-06-12".
  33. ^ https://lists.x.org/archives/xorg-devel/2022-June/058833.html

추가 정보

외부 링크