일레더AI

EleutherAI
일레더AI
업종연구협동조합
설립된2020년 7월 3일; 3년 전 (2020-07-03)[1]
산업인공지능
상품들GPT-Neo, GPT-NeoX, GPT-J, Fairseq, The Pile
URLeleuther.ai

일레더AI(/ əˈ ːθər/)는 풀뿌리 비영리 인공지능(AI) 연구 그룹입니다.오픈 소스 버전으로 간주되는 이 그룹.AI는 2020년 7월 디스코드 서버에서 GPT-3 복제를 조직하기 위해 결성되었으며,[3] 2023년 초 공식적으로 일레더로 통합되었습니다.비영리 연구기관 AI 재단.[4]

역사

일레더AI는 2020년 7월 7일 "리브레"라는 가칭으로 디스코드 서버로 시작되었습니다.'일러더'로 브랜드 변경 전 'AI그 달 말,[5] 고대 그리스어로 자유를 뜻하는 단어인 일레우테리아를 가리키는 AI.[3]

2020년 12월 30일 엘러더AI는 대형 언어 모델을 훈련하기 위한 다양한 텍스트의 큐레이션된 데이터 세트인 파일(The Pile)을 공개했습니다.[6]이 논문은 GPT-Neo 모델의 존재를 언급했지만, 모델 자체는 2021년 3월 21일까지 출시되지 않았습니다.[7]수개월 후에 쓴 회고록에 따르면, 저자들은 "사람들이 우리의 '작은 모델'에 대해 그렇게 많이 관심을 가질 것"이라고 예상하지 못했습니다.[1] 2021년 6월 9일, 일러더.AI는 60억 개의 매개 변수 언어 모델인 GPT-J-6B를 따라갔고, 이 모델은 다시 세계에서 가장 큰 오픈 소스 GPT-3와 유사한 모델이었습니다.[8]이 언어 모델들은 Apache 2.0 무료 소프트웨어 라이센스 하에 출시되었으며 "새롭게 새로운 스타트업의 물결에 기름을 부었다"고 평가됩니다.[4]

While EleutherAI는 처음에는 자금 조달 제안을 거절했고, 컴퓨터를 공급하기 위해 구글의 TPU 리서치 클라우드 프로그램을 사용하는 것을 선호했습니다.[9]2021년 초까지 그들은 대규모 머신러닝 연구에 필요한 강력한 GPU 클러스터에 액세스하는 형태로 CoreWeave(작은 클라우드 컴퓨팅 회사)와 SpellML(클라우드 인프라 회사)로부터 자금 지원을 받았습니다.2022년 2월 10일, 그들은 이전 작업과 유사하지만 코어위브가 제공한 자원 덕분에 확장된 모델인 GPT-NeoX-20B를 출시했습니다.[10]

2022년에는 많은 Eleather들이빅사이언스 연구 워크숍에는 AI 회원들이 참여해 멀티태스킹 미세조정,[11][12] BLOM 교육, [13]평가 라이브러리 설계 등의 프로젝트를 수행했습니다.[14]엘러더의 엔지니어딥마인드의 알파폴드2를 오픈소스로 복제한 오픈폴드를 훈련시키기 위해 컬럼비아대하버드대[15] 이끄는 생물학자들과 AI, 스태빌리티 AI, 엔비디아가 힘을 합쳤습니다.[16]

2023년 초, 엘러더AI는 스텔라바이더먼, 커티스 휴브너, 시반슈 푸로히트가 운영하는 비영리 연구소로 편입했습니다.[4][17]이 발표는 엘러더가 다음과 같은 진술과 함께 나왔습니다.인공지능이 더 큰 언어 모델을 훈련하는 것에서 초점을 전환한 것은 해석 가능성, 정렬 및 과학적 연구를 수행하기 위한 의도적인 추진의 일부였습니다.[17]While EleutherAI는 여전히 AI 기술에 대한 접근을 촉진하는 데 전념하고 있으며, "한 때보다 LLM을 훈련하고 출시하는 데 상당히 많은 관심이 있다"고 느끼고 있어 다른 프로젝트에 집중할 수 있습니다.[18]

조사.

그들의 웹사이트에 의하면, 엘러더.AI는 "AI 정렬, 확장 및 오픈 소스 AI 연구에 초점을 맞춘 자원봉사 연구자, 엔지니어 및 개발자의 탈중앙화 풀뿌리 집단"입니다.[19]그들은 자신들의 기술을 제품으로 판매하지는 않지만, 학술적인 장소에서 연구 결과를 발표하고, 그들의 아이디어와 방법론을 자세히 설명하는 블로그 포스트를 작성하며, 누구나 무료로 사용할 수 있도록 훈련된 모델을 제공합니다.[citation needed]

더 파일

파일(Pile)은 대용량 언어 모델을 교육하기 위해 설계된 886GB 데이터 세트입니다.그것은 원래 엘러더를 훈련시키기 위해 개발되었습니다.인공지능의 GPT-Neo 모델이지만 마이크로소프트의 메가트론-튜링 자연어 생성,[20][21] 메타AI의 오픈 프리 트레이닝 트랜스포머,[22] LlaMA[23]갤럭티카,[24] 스탠포드 대학의 바이오메드LM 2.7B,[25] 베이징 인공지능 아카데미의 중국어-트랜스포머-XL 및 [26]얀덱스의 YaLM 100B를 포함한 다른 모델을 훈련하는 데 널리 사용되고 있습니다.[27]다른 데이터셋과 비교할 때 파일의 주요 특징은 Eleuther의 연구원들이 선택한 데이터를 선별한 것이라는 점입니다.언어 모델이 배워야 한다고 생각했던 정보를 담고, 그것을 개발한 연구자들에 의해 철저히 문서화된 유일한 데이터 세트라는 것을 포함하는 AI.[28]

GPT 모델

일레더AI의 가장 저명한 연구는 오픈에서 영감을 받은 오픈 소스 대형 언어 모델을 훈련하는 작업과 관련이 있습니다.인공지능의 GPT-3.[29] EutherAI의 'GPT-Neo' 모델 시리즈는 1억 2,500만, 13억, 27억, 60억, 200억 파라미터 모델을 출시했습니다.

  • GPT-Neo(125M, 1.3B, 2.7B):[30] 2021년 3월 출시된 GPT-3 스타일 언어 모델로 출시 당시 세계 최대 규모의 오픈소스 GPT-3 스타일 언어 모델임.
  • GPT-J (6B):[31] 2021년 3월에 출시되었으며, 출시 당시 세계에서 가장 큰 오픈 소스 GPT-3 스타일 언어 모델이었습니다.[32]
  • GPT-NeoX (20B):[33] 2022년 2월에 출시되었으며, 출시 당시 세계 최대 오픈 소스 언어 모델이었습니다.
  • 피티아 (13B):[34]이전 모델들이 GPT-3와 같은 폐쇄형 모델과의 격차를 줄이기 위해 더 큰 규모로 확장하는 데 중점을 뒀다면, 피시아 모델 제품군은 다른 방향으로 나아갑니다.Pythia 제품군은 대형 언어 모델의 능력과 학습 과정에 대한 과학적 연구를 용이하게 하기 위해 설계되었습니다.[35]154개의 부분적으로 훈련된 모델 체크포인트, 완전히 공개된 교육 데이터, 정확한 교육 순서를 재현할 수 있는 기능을 갖춘 Pythia는 검증 가능한 교육,[36] 사회적 편견,[37] 암기 등에 대한 연구를 가능하게 합니다.[39]

대다수의 대형 언어 모델들이[when?] 영어나 중국어로 훈련을 받는 반면,[citation needed] 엘러더인공지능은 또한 한국어 폴리글롯-코와 같은 다른 언어로 언어 모델을 훈련시킵니다.[40]

VQGAN-CLIP

EleutherAI의[41][42] Katherine Crowson이 만든 텍스트-투-이미지 모델인 CLIP-Guided Diffusion으로 만든 인공지능 예술

오픈에 의한 DALL-E 출시 이후2021년 1월 인공지능, 일레더AI는 텍스트와 이미지의 합성 모델을 연구하기 시작했습니다.열 때AI, DALL-E 공개 안해, EutherAI의 캐서린 크로우슨(Katherine Crowson)과 디지털 아티스트 라이언 머독(Ryan Murdock)은 CLIP(오픈이 개발한 또 다른 모델)을 사용하는 기술을 개발했습니다.일반적인 이미지 생성 모델을 텍스트-투-이미지 합성 모델로 변환하는 AI.[43][44][45][46]Google의 DeepDream까지 거슬러 올라가는 아이디어를 바탕으로,[47] 그들은 CLIP을 VQGAN이라고 불리는 또 다른 공개적으로 사용 가능한 모델과 결합하여 그들의 첫 번째 주요 성공을 발견했고, 그 결과 모델은 VQGAN-CLIP이라고 불립니다.[48]크로우슨은 사람들이 특별한 장비 없이 무료로 달릴 수 있는 기술을 보여주는 노트를 트윗함으로써 그 기술을 공개했습니다.[49][50][51]이 작업은 스태빌리티 AI의 CEO 에마드 모스타크가 스태빌리티 AI의 설립 동기를 부여한 것으로 인정받았습니다.[52]

공개 리셉션

칭찬하다

일레더GPT-3의 민주화를 위한 AI의 노력은 2021년 유네스코 넷플로 글로벌 혁신상,[53] 2021년과[54] 2022년 인포월드의 최고 오픈 소스 소프트웨어상을 수상했으며 2021년 벤처비트의 AI 혁신상 후보에 올랐습니다.[55][56]

인지과학자이자 오픈과 같은 딥러닝 회사의 저명한 비평가인 Gary Marcus인공지능과 딥마인드,[57] 엘러더 거듭[58][59] 칭찬오픈소스와 투명한 연구에 대한 AI의 헌신.

모질라 재단의 수석 정책 연구원인 막시밀리안 간츠는 엘러더에게 박수를 보냈습니다.더 많은 연구자들에게 AI 기술을 감사하고 평가할 수 있는 능력을 주기 위한 AI의 노력."모델이 개방되어 있고 데이터 세트가 개방되어 있다면, 생성 AI와 관련된 많은 결점과 해악을 지적한 훨씬 더 많은 중요한 연구를 가능하게 할 것이며, 수행하기가 너무 어려운 경우가 많습니다."[60]

비평

기술 저널리스트 카일 위거즈(Kyle Wiggers)는 엘러더가 이에 대한 우려를 제기했습니다.AI는 주장하는 것처럼 독립적이거나 "안정성 AI와 허깅 페이스와 같은 상업적 동기에 기반을 둔 벤처의 참여가 상당한 벤처 자본의 지원을 받아 일레더에 영향을 미칠 수 있는지 여부"인공지능의 연구."[61]

참고문헌

  1. ^ a b Leahy, Connor; Hallahan, Eric; Gao, Leo; Biderman, Stella (7 July 2021). "What A Long, Strange Trip It's Been: EleutherAI One Year Retrospective". Archived from the original on 29 August 2023. Retrieved 1 March 2023.
  2. ^ "Talk with Stella Biderman on The Pile, GPT-Neo and MTG". The Interference Podcast. 2 April 2021. Retrieved 26 March 2023.
  3. ^ a b Smith, Craig (21 March 2022). "EleutherAI: When OpenAI Isn't Open Enough". IEEE Spectrum. IEEE. Archived from the original on 29 August 2023. Retrieved 8 August 2023.
  4. ^ a b c Wiggers, Kyle (2 March 2023). "Stability AI, Hugging Face and Canva back new AI research nonprofit". TechCrunch. Archived from the original on 29 August 2023. Retrieved 8 August 2023.
  5. ^ Leahy, Connor; Hallahan, Eric; Gao, Leo; Biderman, Stella (7 July 2021). "What A Long, Strange Trip It's Been: EleutherAI One Year Retrospective". EleutherAI Blog. Archived from the original on 29 August 2023. Retrieved 14 April 2023.
  6. ^ Gao, Leo; Biderman, Stella; Black, Sid; et al. (31 December 2020). The Pile: An 800GB Dataset of Diverse Text for Language Modeling. arXiv 2101.00027. arXiv:2101.00027.
  7. ^ "GPT-3's free alternative GPT-Neo is something to be excited about". VentureBeat. 15 May 2021. Archived from the original on 9 March 2023. Retrieved 14 April 2023.
  8. ^ "GPT-J-6B: An Introduction to the Largest Open Source GPT Model Forefront". www.forefront.ai. Archived from the original on 9 March 2023. Retrieved 1 March 2023.
  9. ^ "EleutherAI: When OpenAI Isn't Open Enough". IEEE Spectrum. Archived from the original on 21 March 2023. Retrieved 1 March 2023.
  10. ^ Black, Sid; Biderman, Stella; Hallahan, Eric; et al. (14 April 2022). "GPT-NeoX-20B An Open-Source Autoregressive Language Model". arXiv:2204.06745 [cs.CL].
  11. ^ Sanh, Victor; et al. (2021). "Multitask Prompted Training Enables Zero-Shot Task Generalization". arXiv:2110.08207 [cs.LG].
  12. ^ Muennighoff, Niklas; Wang, Thomas; Sutawika, Lintang; Roberts, Adam; Biderman, Stella; Teven Le Scao; M Saiful Bari; Shen, Sheng; Yong, Zheng-Xin; Schoelkopf, Hailey; Tang, Xiangru; Radev, Dragomir; Alham Fikri Aji; Almubarak, Khalid; Albanie, Samuel; Alyafeai, Zaid; Webson, Albert; Raff, Edward; Raffel, Colin (2022). "Crosslingual Generalization through Multitask Finetuning". arXiv:2211.01786 [cs.CL].
  13. ^ Workshop, BigScience; et al. (2022). "BLOOM: A 176B-Parameter Open-Access Multilingual Language Model". arXiv:2211.05100 [cs.CL].
  14. ^ Workshop, BigScience; et al. (2022). "BLOOM: A 176B-Parameter Open-Access Multilingual Language Model". arXiv:2211.05100 [cs.CL].
  15. ^ https://cbirt.net/meet-openfold-reimplementing-alphafold2-to-illuminate-its-learning-mechanisms-and-generalization/
  16. ^ https://wandb.ai/openfold/openfold/reports/Democratizing-AI-for-Biology-with-OpenFold--VmlldzoyODUyNDI4
  17. ^ a b https://blog.eleuther.ai/year-two-preface/
  18. ^ https://thenonprofittimes.com/technology/ai-research-lab-launches-open-source-research-nonprofit/
  19. ^ "EleutherAI Website". EleutherAI. Archived from the original on 2 July 2021. Retrieved 1 July 2021.
  20. ^ "Microsoft and Nvidia team up to train one of the world's largest language models". 11 October 2021. Archived from the original on 27 March 2023. Retrieved 8 March 2023.
  21. ^ "AI: Megatron the Transformer, and its related language models". 24 September 2021. Archived from the original on 4 March 2023. Retrieved 8 March 2023.
  22. ^ Zhang, Susan; Roller, Stephen; Goyal, Naman; Artetxe, Mikel; Chen, Moya; Chen, Shuohui; Dewan, Christopher; Diab, Mona; Li, Xian; Lin, Xi Victoria; Mihaylov, Todor; Ott, Myle; Shleifer, Sam; Shuster, Kurt; Simig, Daniel; Koura, Punit Singh; Sridhar, Anjali; Wang, Tianlu; Zettlemoyer, Luke (21 June 2022). "OPT: Open Pre-trained Transformer Language Models". arXiv:2205.01068 [cs.CL].
  23. ^ Touvron, Hugo; Lavril, Thibaut; Izacard, Gautier; Grave, Edouard; Lample, Guillaume; et al. (27 February 2023). "LLaMA: Open and Efficient Foundation Language Models". arXiv:2302.13971 [cs.CL].
  24. ^ Taylor, Ross; Kardas, Marcin; Cucurull, Guillem; Scialom, Thomas; Hartshorn, Anthony; Saravia, Elvis; Poulton, Andrew; Kerkez, Viktor; Stojnic, Robert (16 November 2022). "Galactica: A Large Language Model for Science". arXiv:2211.09085 [cs.CL].
  25. ^ "Model Card for BioMedLM 2.7B". huggingface.co. Archived from the original on 5 June 2023. Retrieved 5 June 2023.
  26. ^ Yuan, Sha; Zhao, Hanyu; Du, Zhengxiao; Ding, Ming; Liu, Xiao; Cen, Yukuo; Zou, Xu; Yang, Zhilin; Tang, Jie (1 January 2021). "WuDaoCorpora: A super large-scale Chinese corpora for pre-training language models". AI Open. 2: 65–68. doi:10.1016/j.aiopen.2021.06.001. S2CID 236712622. Archived from the original on 9 July 2021. Retrieved 8 March 2023 – via ScienceDirect.
  27. ^ Grabovskiy, Ilya (2022). "Yandex publishes YaLM 100B, the largest GPT-like neural network in open source" (Press release). Yandex. Retrieved 5 June 2023.
  28. ^ Khan, Mehtab; Hanna, Alex (13 September 2022). "The Subjects and Stages of AI Dataset Development: A Framework for Dataset Accountability". SSRN 4217148. Archived from the original on 29 August 2023. Retrieved 8 March 2023 – via papers.ssrn.com.
  29. ^ "GPT-3's free alternative GPT-Neo is something to be excited about". 15 May 2021. Archived from the original on 9 March 2023. Retrieved 10 March 2023.
  30. ^ Andonian, Alex; Biderman, Stella; Black, Sid; Gali, Preetham; Gao, Leo; Hallahan, Eric; Levy-Kramer, Josh; Leahy, Connor; Nestler, Lucas; Parker, Kip; Pieler, Michael; Purohit, Shivanshu; Songz, Tri; Phil, Wang; Weinbach, Samuel (13 August 2021). "GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch". Archived from the original on 13 March 2023. Retrieved 13 March 2023 – via GitHub.
  31. ^ "EleutherAI/gpt-j-6B · Hugging Face". huggingface.co. Archived from the original on 12 March 2023. Retrieved 10 March 2023.
  32. ^ "GPT-J-6B: An Introduction to the Largest Open Source GPT Model Forefront". www.forefront.ai. Archived from the original on 9 March 2023. Retrieved 1 March 2023.
  33. ^ Black, Sidney; Biderman, Stella; Hallahan, Eric; et al. (1 May 2022). GPT-NeoX-20B: An Open-Source Autoregressive Language Model. Proceedings of BigScience Episode #5 -- Workshop on Challenges & Perspectives in Creating Large Language Models. Vol. Proceedings of BigScience Episode #5 -- Workshop on Challenges & Perspectives in Creating Large Language Models. pp. 95–136. Retrieved 19 December 2022.
  34. ^ Biderman, Stella; Schoelkopf, Hailey; Anthony, Quentin; Bradley, Herbie; O'Brien, Kyle; Hallahan, Eric; Mohammad Aflah Khan; Purohit, Shivanshu; USVSN Sai Prashanth; Raff, Edward; Skowron, Aviya; Sutawika, Lintang; Oskar van der Wal (2023). "Pythia: A Suite for Analyzing Large Language Models Across Training and Scaling". arXiv:2304.01373 [cs.CL].
  35. ^ Biderman, Stella; Schoelkopf, Hailey; Anthony, Quentin; Bradley, Herbie; O'Brien, Kyle; Hallahan, Eric; Mohammad Aflah Khan; Purohit, Shivanshu; USVSN Sai Prashanth; Raff, Edward; Skowron, Aviya; Sutawika, Lintang; Oskar van der Wal (2023). "Pythia: A Suite for Analyzing Large Language Models Across Training and Scaling". arXiv:2304.01373 [cs.CL].
  36. ^ Choi, Dami; Shavit, Yonadav; Duvenaud, David (2023). "Tools for Verifying Neural Models' Training Data". arXiv:2307.00682 [cs.LG].
  37. ^ Biderman, Stella; Schoelkopf, Hailey; Anthony, Quentin; Bradley, Herbie; O'Brien, Kyle; Hallahan, Eric; Mohammad Aflah Khan; Purohit, Shivanshu; USVSN Sai Prashanth; Raff, Edward; Skowron, Aviya; Sutawika, Lintang; Oskar van der Wal (2023). "Pythia: A Suite for Analyzing Large Language Models Across Training and Scaling". arXiv:2304.01373 [cs.CL].
  38. ^ Biderman, Stella; USVSN Sai Prashanth; Sutawika, Lintang; Schoelkopf, Hailey; Anthony, Quentin; Purohit, Shivanshu; Raff, Edward (2023). "Emergent and Predictable Memorization in Large Language Models". arXiv:2304.11158 [cs.CL].
  39. ^ Gupta, Kshitij; Thérien, Benjamin; Ibrahim, Adam; Richter, Mats L.; Anthony, Quentin; Belilovsky, Eugene; Rish, Irina; Lesort, Timothée (2023). "Continual Pre-Training of Large Language Models: How to (Re)warm your model?". arXiv:2308.04014 [cs.CL].
  40. ^ ""한국어기반 AI소스 공개합니다 마음껏 쓰세요"". 매일경제. 31 October 2022. Archived from the original on 26 April 2023. Retrieved 10 March 2023.
  41. ^ "CLIP-Guided Diffusion". EleutherAI. Archived from the original on 29 August 2023. Retrieved 20 August 2023.
  42. ^ "CLIP Guided Diffusion HQ 256x256.ipynb - Colaboratory". Google Colab. Archived from the original on 29 August 2023. Retrieved 20 August 2023.
  43. ^ MIRANDA, LJ. "The Illustrated VQGAN". ljvmiranda921.github.io. Archived from the original on 20 March 2023. Retrieved 8 March 2023.
  44. ^ "Inside The World of Uncanny AI Twitter Art". Nylon. Archived from the original on 29 August 2023. Retrieved 8 March 2023.
  45. ^ "This AI Turns Movie Text Descriptions Into Abstract Posters". Yahoo Life. Archived from the original on 27 December 2022. Retrieved 8 March 2023.
  46. ^ Quach, Katyanna. "A man spent a year in jail on a murder charge involving disputed AI evidence. Now the case has been dropped". www.theregister.com. Archived from the original on 8 March 2023. Retrieved 8 March 2023.
  47. ^ "Alien Dreams: An Emerging Art Scene - ML@B Blog". Alien Dreams: An Emerging Art Scene - ML@B Blog. Archived from the original on 10 March 2023. Retrieved 8 March 2023.
  48. ^ "VQGAN-CLIP". EleutherAI. Archived from the original on 20 August 2023. Retrieved 20 August 2023.
  49. ^ "We asked an AI tool to 'paint' images of Australia. Critics say they're good enough to sell". 14 July 2021. Archived from the original on 7 March 2023. Retrieved 8 March 2023 – via www.abc.net.au.
  50. ^ Nataraj, Poornima (28 February 2022). "Online tools to create mind-blowing AI art". Analytics India Magazine. Archived from the original on 8 February 2023. Retrieved 8 March 2023.
  51. ^ "Meet the Woman Making Viral Portraits of Mental Health on TikTok". www.vice.com. Archived from the original on 11 May 2023. Retrieved 8 March 2023.
  52. ^ @EMostaque (2 March 2023). "Stability AI came out of @AiEleuther and we have been delighted to incubate it as the foundation was set up" (Tweet) – via Twitter.
  53. ^ "Request Rejected". Archived from the original on 16 October 2022. Retrieved 8 March 2023.
  54. ^ Yegulalp, James R. Borck, Martin Heller, Andrew C. Oliver, Ian Pointer, Matthew Tyson and Serdar (18 October 2021). "The best open source software of 2021". InfoWorld. Archived from the original on 8 March 2023. Retrieved 8 March 2023.{{cite web}}: CS1 유지 : 여러 이름 : 저자 목록 (링크)
  55. ^ Yegulalp, James R. Borck, Martin Heller, Andrew C. Oliver, Ian Pointer, Isaac Sacolick, Matthew Tyson and Serdar (17 October 2022). "The best open source software of 2022". InfoWorld. Archived from the original on 8 March 2023. Retrieved 8 March 2023.{{cite web}}: CS1 유지 : 여러 이름 : 저자 목록 (링크)
  56. ^ "VentureBeat presents AI Innovation Awards nominees at Transform 2021". 16 July 2021. Archived from the original on 8 March 2023. Retrieved 8 March 2023.
  57. ^ "What's next for AI: Gary Marcus talks about the journey toward robust artificial intelligence". ZDNET. Archived from the original on 1 March 2023. Retrieved 8 March 2023.
  58. ^ @GaryMarcus (10 February 2022). "GPT-NeoX-20B, 20 billion parameter large language model made freely available to public, with candid report on strengths, limits, ecological costs, etc" (Tweet) – via Twitter.
  59. ^ @GaryMarcus (19 February 2022). "incredibly important result: "our results raise the question of how much [large language] models actually generalize beyond pretraining data"" (Tweet) – via Twitter.
  60. ^ Chowdhury, Meghmala (29 December 2022). "Will Powerful AI Disrupt Industries Once Thought to be Safe in 2023?". Analytics Insight. Archived from the original on 1 January 2023. Retrieved 6 April 2023.
  61. ^ Wiggers, Kyle (2 March 2023). "Stability AI, Hugging Face and Canva back new AI research nonprofit". Archived from the original on 7 March 2023. Retrieved 8 March 2023.