달-이
DALL-E원본 작성자 | 오픈AI |
---|---|
초기출시 | 2021년1월5일 |
유형 | 텍스트-이미지_모델 |
웹사이트 | labs |
시리즈의 일부(on) |
인공지능 |
---|
DALL-E (DALL·E), DALL-E 2, DALL-E 3는 오픈이 개발한 텍스트-투-이미지 모델입니다."프롬프트"라고 불리는 자연어 설명으로부터 디지털 이미지를 생성하기 위해 딥 러닝 방법론을 사용하는 AI.원래 DALL-E는 Open에 의해 공개되었습니다.AI는 2021년 1월 5일 블로그에 올린 글에서 GPT-3[1] 버전을 변형해 이미지를 생성합니다.2022년 4월 6일, 오픈AI는 "개념, 속성, 스타일을 결합할 수 있는" 더 높은 해상도로 더 사실적인 이미지를 생성하도록 설계된 후속작인 DALL-E 2를 발표했습니다.[2]2023년 9월, OpenAI는 최신 이미지 모델인 DALL-E 3를 발표했는데, 이 모델은 이전 버전보다 훨씬 더 뉘앙스와 디테일을 잘 이해할 수 있습니다.[3]
2022년 7월 20일, DALL-E 2는 대기자 100만 명에게 초대장을 보내며 베타 단계에 들어갔습니다.[4] 사용자는 매달 일정 수의 이미지를 무료로 생성할 수 있으며 더 많은 이미지를 구매할 수 있습니다.[5]이전에는 윤리와 안전에 대한 우려 때문에 연구 미리보기를 위해 미리 선택된 사용자에게 접근이 제한되었습니다.[6][7]2022년 9월 28일, DALL-E 2는 모든 사람에게 공개되었고 대기자 명단 요건이 삭제되었습니다.[8]
2022년 11월 초 오픈AI는 DALL-E 2를 API로 공개하여 개발자들이 자신의 애플리케이션에 모델을 통합할 수 있도록 했습니다.마이크로소프트는 빙과 마이크로소프트 엣지에 포함된 디자이너 앱과 이미지 크리에이터 도구에서 DALL-E 2의 구현을 공개했습니다.[9]API는 이미지당 비용을 기준으로 작동하며, 이미지 해상도에 따라 가격이 다릅니다.오픈과 함께 일하는 회사들은 물량 할인을 받을 수 있습니다.AI의 기업팀.[10]
DALL-E 3는 2023년 10월에 ChatGPT Plus 및 ChatGPT Enterprise 고객을 위한 ChatGPT에 기본 출시될 예정이며, Open을 통해 제공됩니다.AI의 API와 '랩스' 플랫폼은 올해 말로 예상됩니다.[11]마이크로소프트는 또한 이 모델을 디자이너 앱과 이미지 크리에이터 도구에 구현할 계획입니다.[12]
이 소프트웨어의 이름은 애니메이션 로봇 픽사의 캐릭터인 월-E와 스페인의 초현실주의 예술가 살바도르 달리의 이름의 혼성어입니다.[13][1]
테크놀러지
최초의 GPT(Generative Pre-Trained Transformer) 모델은 Open에 의해 처음 개발되었습니다.2018년 AI,[14] 트랜스포머 아키텍처 활용첫 번째 반복인 [15]GPT-1은 2019년에 GPT-2를 생산하도록 확장되었으며, 2020년에 다시 확장되어 1750억 개의 매개 변수를 가진 GPT-3를 생산했습니다.[16][17][1][18]
DALL-E의 모델은 120억 개의 매개[1] 변수를 가진 GPT-3의[19] 멀티모달 구현으로, 인터넷의 텍스트 이미지 쌍에 대해 훈련되었습니다.[20]구체적으로, 트랜스포머 모델에 대한 입력은 토큰화된 이미지 캡션과 토큰화된 이미지 패치의 시퀀스입니다.이미지 캡션은 영어로 바이트 쌍 인코딩(어휘 크기 16384)으로 토큰화되며 최대 256개의 토큰을 사용할 수 있습니다.각 이미지는 256x256 RGB 이미지이며 각각 4x4의 32x32 패치로 나뉩니다.그런 다음 각 패치는 이산 VAE에 의해 토큰(어휘 크기 8192)으로 변환됩니다.
DALL-E는 CLIP(Contrastive Language-Image Pre-training)과 함께 개발되어 일반에 발표되었습니다.[20]CLIP는 인터넷에서 긁어낸 텍스트 캡션이 있는 4억 쌍의 이미지에 대해 훈련된 제로샷 학습 기반의 별도 모델입니다.[1][20][21]데이터 세트에서 무작위로 선택된 32,768개의 캡션 목록에서 어떤 캡션이 이미지에 가장 적합한지 예측하여 DALL-E의 출력을 "이해하고 순위를 매기는" 역할을 합니다.이 모델은 가장 적합한 출력을 선택하기 위해 DALL-E에서 생성된 더 큰 초기 영상 목록을 필터링하는 데 사용됩니다.[13][20]
DALL-E 2는 전작보다 적은 35억 개의 파라미터를 사용합니다.[22]DALL-E 2는 CLIP 이미지 임베딩에 조건을 맞춘 확산 모델을 사용하며, 추론 중에 이전 모델에 의해 CLIP 텍스트 임베딩에서 생성됩니다.[22]
성능
DALL-E는 사실적인 이미지, 그림, 이모지 등 다양한 스타일로 이미지를 생성할 수 있습니다.[1]이미지의 객체를 "조작하고 재배치"할 수 있으며,[1] 명시적인 지시 없이 새로운 구도에 디자인 요소를 올바르게 배치할 수 있습니다.보잉보잉(Boing Boing)에 기고하는 톰 던(Thom Dunn)은 "예를 들어, 코를 푸는 무, 라떼를 홀짝이는 무, 또는 외발자전거를 타는 무를 그리라고 요청 받았을 때, DALL-E는 종종 손수건, 손, 발을 그럴듯한 위치에 그립니다."[23]라고 말했습니다. DALL-E는 아디(addi)와 같은 특정 프롬프트 없이 적절한 세부 사항을 추론하는 "빈칸을 채우는" 능력을 보여주었습니다.ng 크리스마스 이미지는 일반적으로 축하 행사와 관련된 프롬프트에 표시되며,[24] 해당 메시지를 언급하지 않은 이미지에 적절하게 그림자를 배치합니다.[25]또한 DALL-E는 시각 및 디자인 트렌드에 대한 폭넓은 이해를 보여줍니다.[citation needed]
DALL-E는 희귀한 장애만 가지고도 다양한[26] 관점에서 다양하고 임의적인 설명을 위한 이미지를 생성할 수 있습니다.[13]조지아 공대 인터랙티브 컴퓨팅 부교수인 Mark Riedl은 DALL-E가 (인간 창의력의 핵심 요소로 묘사되는) 개념을 혼합할 수 있다는 것을 발견했습니다.[27][28]
시각적 추론 능력은 레이븐 행렬(지능을 측정하기 위해 인간에게 종종 투여되는 시각적 테스트)을 풀기에 충분합니다.[29][30]
DALL-E 3는 이전 제품보다 더 정확하고 상세하게 복잡한 프롬프트를 따르며, Venus의 여행 포스터, 숟가락인 치료사에게 말하는 아보카도와 같은 예제 세대에서 입증된 더 일관성 있고 정확한 텍스트를 생성할 수 있습니다.[31][3]
이미지수정
기존 이미지가 주어지면 DALL-E 2는 원본을 기반으로 이미지의 "변주"를 개별 출력으로 생성할 수 있으며 이미지를 수정하거나 확장할 수 있습니다.DALL-E 2의 "인페인팅"과 "아웃페인팅"은 이미지의 컨텍스트를 사용하여 주어진 프롬프트에 따라 원본과 일치하는 매체를 사용하여 누락된 부분을 채웁니다.예를 들어, 이미지에 새 제목을 삽입하거나 이미지를 원래 테두리 밖으로 확장하는 데 사용할 수 있습니다.[32]OpenAI에 따르면 "아웃페인팅은 원래 이미지의 컨텍스트를 유지하기 위해 그림자, 반사 및 텍스처를 포함한 이미지의 기존 시각적 요소를 고려합니다."[33]
기술적 한계
DALL-E 2의 언어 이해에는 한계가 있습니다.'노란 책과 빨간 꽃병'과 '빨간 책과 노란 꽃병', '라떼 아트를 만드는 판다'와 '판다의 라떼 아트'를 구분하지 못할 때도 있습니다.[34]'우주인을 타고 있는 말'이라는 프롬프트가 뜨면 '우주인이 말을 타고 있는' 이미지가 생성됩니다.[35]또한 다양한 상황에서 올바른 이미지를 생성하지 못합니다.세 개 이상의 개체, 부정, 숫자, 연결 문장을 요청할 경우 실수가 발생할 수 있으며 잘못된 개체에 개체 특징이 나타날 수 있습니다.[26]추가적인 제한 사항으로는 텍스트 처리 - 가독성 있는 문자를 사용하더라도 거의 항상 꿈과 같은 횡설수설하는 결과를 초래하는 - 천문학이나 의학 이미지와 같은 과학적 정보를 다루는 제한된 능력이 포함됩니다.[36]
윤리적 관심사
DALL-E 2는 공개 데이터셋에 대한 의존도가 결과에 영향을 미치며 성별을 언급하지 않는 요청에 대해 여성보다 더 많은 수의 남성을 생성하는 등 경우에 따라 알고리즘 편향을 초래합니다.[37]DALL-E 2의 훈련 데이터를 필터링하여 폭력적이고 성적인 이미지를 제거했지만, 이는 여성 발생 빈도를 줄이는 등의 경우 편향성을 높이는 것으로 나타났습니다.[38]OpenAI는 필터가 결과에 영향을 미치는 훈련 데이터에서 여성이 성적으로 나타날 가능성이 더 높기 때문일 수 있다고 가정합니다.[38]2022년 9월 오픈AI는 DALL-E가 결과의 편향을 해결하기 위해 사용자 프롬프트에 보이지 않게 문구를 삽입하는 것을 확인했습니다. 예를 들어 "흑인 남성"과 "아시아 여성"은 성별이나 인종을 지정하지 않은 프롬프트에 삽입됩니다.[39]
DALL-E 2 및 유사한 이미지 생성 모델에 대한 우려는 딥 페이크 및 기타 형태의 잘못된 정보를 전파하는 데 사용될 수 있다는 것입니다.[40][41]이를 완화하기 위한 시도로, 이 소프트웨어는 공인과 관련된 프롬프트를 거부하고 사람의 얼굴이 포함된 업로드를 합니다.[42]잠재적으로 불쾌할 수 있는 내용이 포함된 프롬프트가 차단되고 업로드된 이미지가 분석되어 공격적인 자료가 탐지됩니다.[43]프롬프트 기반 필터링의 단점은 유사한 결과를 초래하는 대체 구문을 사용하여 무시하기 쉽다는 것입니다.예를 들어, "피"라는 단어는 걸러지지만, "케첩"과 "붉은 액체"는 걸러지지 않습니다.[44][43]
DALL-E 2와 비슷한 모델들에 대한 또 다른 우려는 그들의 정확성과 인기 때문에 예술가, 사진작가, 그래픽 디자이너들에게 기술적 실업을 야기할 수 있다는 것입니다.[45][46]
접수처
DALL-E의 대부분의 커버리지는 "초현실적"[20] 또는 "이상한"[27] 출력의 작은 부분집합에 초점을 맞추고 있습니다.인풋, NBC, [47][48]네이처 [49]및 기타 출판물에서 "개를 산책시키는 투투족의 아기 무화과 그림"에 대한 DALL-E의 결과물이 언급되었습니다.[1][50][51]"아보카도 모양의 안락의자"에 대한 결과물도 널리 보도되었습니다.[20][28]
ExtremeTech는 "지정된 기간 동안 DALL-E에게 전화기나 진공 청소기의 사진을 요청할 수 있으며, 그 물체들이 어떻게 변했는지를 이해합니다."라고 말했습니다.[24]엔가젯은 또한 "전화기와 다른 물체가 시간에 따라 어떻게 변하는지 이해"할 수 있는 특이한 능력에 주목했습니다.[25]
MIT Technology Review에 따르면, Open 중 하나입니다.인공지능의 목표는 "언어 모델이 인간이 사물을 이해하기 위해 사용하는 일상적인 개념을 더 잘 이해할 수 있도록 하는 것"이었습니다.[20]
월가 투자자들은 DALL-E 2에 대해 긍정적인 반응을 보이고 있으며, 일부 기업들은 DALL-E 2가 미래의 수조 달러 산업의 전환점이 될 수 있다고 생각하고 있습니다.2019년 중반까지 오픈AI는 이미 마이크로소프트와 코슬라 벤처스로부터[52][53][54] 10억 달러 이상의 자금을 지원받았으며, 2023년 1월 DALL-E 2와 ChatGPT의 출시에 이어 마이크로소프트로부터 100억 달러의 자금을 추가로 지원받았습니다.[55]
일본의 애니메이션 커뮤니티는 DALL-E 2와 비슷한 모델들에 대해 부정적인 반응을 보였습니다.[56][57][58]일반적으로 아티스트들은 소프트웨어에 반대하는 두 가지 주장을 제시합니다.첫 번째는 인공지능 예술은 인간이 의도를 가지고 만든 것이 아니기 때문에 예술이 아니라는 것입니다."AI가 만든 이미지를 자신의 작품과 나란히 배치하는 것은 그들의 예술에 들어가는 시간과 기술을 저하시키고 있습니다.인공지능 기반 이미지 생성 도구는 웹에서 긁어낸 인간이 만든 예술에 대해 훈련을 받기 때문에 예술가들로부터 심한 비판을 받아왔습니다."[4]두 번째는 저작권법과 데이터 텍스트-투-이미지 모델에 대한 문제입니다.OpenAI는 DALL-E 2를 훈련하기 위해 어떤 데이터 세트가 사용되었는지에 대한 정보를 공개하지 않았으며, 예술가의 작품이 무단으로 훈련에 사용되었다는 일부의 우려를 불러일으켰습니다.이 주제들을 둘러싼 저작권법은 현재로서는 확정적이지 않습니다.[5]
오픈 소스 구현
오픈 이후AI는 세 가지 모델 중 어느 것도 소스 코드를 공개하지 않았고, DALL-E의 오픈 소스 구현을 만들기 위한 여러 시도가 있었습니다.[59][60]2022년 허깅 페이스(Hugging Face's Spaces) 플랫폼에서 출시된 Craiyon(오픈이 이름 변경을 요청할 때까지 DALL-E Mini였던)2022년 6월 AI)는 인터넷의 필터링되지 않은 데이터를 기반으로 훈련된 원본 DAL-E를 기반으로 한 AI 모델입니다.그것은 유머러스한 이미지를 만들어내는 능력 때문에 출시된 후인 2022년 중반에 상당한 언론의 관심을 끌었습니다.[61][62][63]
참고 항목
참고문헌
- ^ a b c d e f g h Johnson, Khari (5 January 2021). "OpenAI debuts DALL-E for generating images from text". VentureBeat. Archived from the original on 5 January 2021. Retrieved 5 January 2021.
- ^ "DALL·E 2". OpenAI. Retrieved 6 July 2022.
- ^ a b "DALL·E 3". OpenAI. Retrieved 21 September 2023.
- ^ a b "DALL·E Now Available in Beta". OpenAI. 20 July 2022. Retrieved 20 July 2022.
- ^ a b Allyn, Bobby (20 July 2022). "Surreal or too real? Breathtaking AI tool DALL-E takes its images to a bigger stage". NPR. Retrieved 20 July 2022.
- ^ "DALL·E Waitlist". labs.openai.com. Retrieved 6 July 2022.
- ^ "From Trump Nevermind babies to deep fakes: DALL-E and the ethics of AI art". the Guardian. 18 June 2022. Retrieved 6 July 2022.
- ^ "DALL·E Now Available Without Waitlist". OpenAI. 28 September 2022. Retrieved 5 October 2022.
- ^ "DALL·E API Now Available in Public Beta". OpenAI. 3 November 2022. Retrieved 19 November 2022.
- ^ Wiggers, Kyle (3 November 2022). "Now anyone can build apps that use DALL-E 2 to generate images". TechCrunch. Retrieved 19 November 2022.
- ^ David, Emilia (20 September 2023). "OpenAI releases third version of DALL-E". The Verge. Retrieved 21 September 2023.
- ^ Mehdi, Yusuf (21 September 2023). "Announcing Microsoft Copilot, your everyday AI companion". The Official Microsoft Blog. Retrieved 21 September 2023.
- ^ a b c Coldewey, Devin (5 January 2021). "OpenAI's DALL-E creates plausible images of literally anything you ask it to". Archived from the original on 6 January 2021. Retrieved 5 January 2021.
- ^ Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (11 June 2018). "Improving Language Understanding by Generative Pre-Training" (PDF). OpenAI. p. 12. Archived (PDF) from the original on 26 January 2021. Retrieved 23 January 2021.
- ^ "GPT-1 to GPT-4: Each of OpenAI's GPT Models Explained and Compared". 11 April 2023.
- ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilua (14 February 2019). "Language models are unsupervised multitask learners" (PDF). 1 (8). Archived (PDF) from the original on 6 February 2021. Retrieved 19 December 2020.
{{cite journal}}
:저널 요구사항 인용journal=
(도움말) - ^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario (22 July 2020). "Language Models are Few-Shot Learners". arXiv:2005.14165 [cs.CL].
- ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (24 February 2021). "Zero-Shot Text-to-Image Generation". arXiv:2102.12092 [cs.LG].
- ^ Tamkin, Alex; Brundage, Miles; Clark, Jack; Ganguli, Deep (2021). "Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models". arXiv:2102.02503 [cs.CL].
- ^ a b c d e f g Heaven, Will Douglas (5 January 2021). "This avocado armchair could be the future of AI". MIT Technology Review. Retrieved 5 January 2021.
- ^ "'DALL-E' AI generates an image out of anything you describe". Engadget. Retrieved 18 July 2022.
- ^ a b Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (12 April 2022). "Hierarchical Text-Conditional Image Generation with CLIP Latents". arXiv:2204.06125.
{{cite journal}}
:저널 요구사항 인용journal=
(도움말) - ^ Dunn, Thom (10 February 2021). "This AI neural network transforms text captions into art, like a jellyfish Pikachu". BoingBoing. Archived from the original on 22 February 2021. Retrieved 2 March 2021.
- ^ a b Whitwam, Ryan (6 January 2021). "OpenAI's 'DALL-E' Generates Images From Text Descriptions". ExtremeTech. Archived from the original on 28 January 2021. Retrieved 2 March 2021.
- ^ a b Dent, Steve (6 January 2021). "OpenAI's DALL-E app generates images from just a description". Engadget. Archived from the original on 27 January 2021. Retrieved 2 March 2021.
- ^ a b Marcus, Gary; Davis, Ernest; Aaronson, Scott (2 May 2022). "A very preliminary analysis of DALL-E 2". arXiv:2204.13807 [cs.CV].
- ^ a b Shead, Sam (8 January 2021). "Why everyone is talking about an image generator released by an Elon Musk-backed A.I. lab". CNBC. Retrieved 2 March 2021.
- ^ a b Wakefield, Jane (6 January 2021). "AI draws dog-walking baby radish in a tutu". British Broadcasting Corporation. Archived from the original on 2 March 2021. Retrieved 3 March 2021.
- ^ Markowitz, Dale (10 January 2021). "Here's how OpenAI's magical DALL-E image generator works". TheNextWeb. Archived from the original on 23 February 2021. Retrieved 2 March 2021.
- ^ "DALL·E: Creating Images from Text". OpenAI. 5 January 2021. Retrieved 13 August 2022.
- ^ Edwards, Benj (20 September 2023). "OpenAI's new AI image generator pushes the limits in detail and prompt fidelity". Ars Technica. Retrieved 21 September 2023.
- ^ Coldewey, Devin (6 April 2022). "New OpenAI tool draws anything, bigger and better than ever". TechCrunch. Retrieved 26 November 2022.
- ^ "DALL·E: Introducing Outpainting". OpenAI. 31 August 2022. Retrieved 26 November 2022.
- ^ Saharia, Chitwan; Chan, William; Saxena, Saurabh; Li, Lala; Whang, Jay; Denton, Emily; Ghasemipour, Seyed Kamyar Seyed; Ayan, Burcu Karagol; Mahdavi, S. Sara; Lopes, Rapha Gontijo; Salimans, Tim (23 May 2022). "Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding". arXiv:2205.11487 [cs.CV].
- ^ Marcus, Gary (28 May 2022). "Horse rides astronaut". The Road to AI We Can Trust. Retrieved 18 June 2022.
- ^ Strickland, Eliza (14 July 2022). "DALL-E 2's Failures Are the Most Interesting Thing About It". IEEE Spectrum. Retrieved 16 August 2022.
- ^ STRICKLAND, ELIZA (14 July 2022). "DALL-E 2's Failures Are the Most Interesting Thing About It". IEEE Spectrum. Retrieved 15 July 2022.
- ^ a b "DALL·E 2 Pre-Training Mitigations". OpenAI. 28 June 2022. Retrieved 18 July 2022.
- ^ James Vincent (29 September 2022). "OpenAI's image generator DALL-E is available for anyone to use immediately". The Verge.
- ^ Taylor, Josh (18 June 2022). "From Trump Nevermind babies to deep fakes: DALL-E and the ethics of AI art". The Guardian. Retrieved 2 August 2022.
- ^ Knight, Will (13 July 2022). "When AI Makes Art, Humans Supply the Creative Spark". Wired. Retrieved 2 August 2022.
- ^ Rose, Janus (24 June 2022). "DALL-E Is Now Generating Realistic Faces of Fake People". Vice. Retrieved 2 August 2022.
- ^ a b OpenAI (19 June 2022). "DALL·E 2 Preview - Risks and Limitations". GitHub. Retrieved 2 August 2022.
- ^ Lane, Laura (1 July 2022). "DALL-E, Make Me Another Picasso, Please". The New Yorker. Retrieved 2 August 2022.
- ^ Goldman, Sharon (26 July 2022). "OpenAI: Will DALLE-2 kill creative careers?".
- ^ Blain, Loz (29 July 2022). "DALL-E 2: A dream tool and an existential threat to visual artists".
- ^ Kasana, Mehreen (7 January 2021). "This AI turns text into surreal, suggestion-driven art". Input. Archived from the original on 29 January 2021. Retrieved 2 March 2021.
- ^ Ehrenkranz, Melanie (27 January 2021). "Here's DALL-E: An algorithm learned to draw anything you tell it". NBC News. Archived from the original on 20 February 2021. Retrieved 2 March 2021.
- ^ Stove, Emma (5 February 2021). "Tardigrade circus and a tree of life — January's best science images". Nature. Archived from the original on 8 March 2021. Retrieved 2 March 2021.
- ^ Knight, Will (26 January 2021). "This AI Could Go From 'Art' to Steering a Self-Driving Car". Wired. Archived from the original on 21 February 2021. Retrieved 2 March 2021.
- ^ Metz, Rachel (2 February 2021). "A radish in a tutu walking a dog? This AI can draw it really well". CNN. Retrieved 2 March 2021.
- ^ Leswing, Kif. "Why Silicon Valley is so excited about awkward drawings done by artificial intelligence". CNBC. Retrieved 1 December 2022.
- ^ Etherington, Darrell (22 July 2019). "Microsoft invests $1 billion in OpenAI in new multiyear partnership". TechCrunch. Retrieved 21 September 2023.
- ^ "OpenAI's first VC backer weighs in on generative A.I." Fortune. Retrieved 21 September 2023.
- ^ Metz, Cade; Weise, Karen (23 January 2023). "Microsoft to Invest $10 Billion in OpenAI, the Creator of ChatGPT". The New York Times. ISSN 0362-4331. Retrieved 21 September 2023.
- ^ "AI-generated art sparks furious backlash from Japan's anime community". Rest of World. 27 October 2022. Retrieved 3 January 2023.
- ^ Roose, Kevin (2 September 2022). "An A.I.-Generated Picture Won an Art Prize. Artists Aren't Happy". The New York Times. ISSN 0362-4331. Retrieved 3 January 2023.
- ^ Daws, Ryan (15 December 2022). "ArtStation backlash increases following AI art protest response". AI News. Retrieved 3 January 2023.
- ^ Sahar Mor, Stripe (16 April 2022). "How DALL-E 2 could solve major computer vision challenges". VentureBeat. Archived from the original on 24 May 2022. Retrieved 15 June 2022.
- ^ jina-ai/dalle-flow, Jina AI, 17 June 2022, retrieved 17 June 2022
- ^ Carson, Erin (14 June 2022). "Everything to Know About Dall-E Mini, the Mind-Bending AI Art Creator". CNET. Archived from the original on 15 June 2022. Retrieved 15 June 2022.
- ^ Schroeder, Audra (9 June 2022). "AI program DALL-E mini prompts some truly cursed images". Daily Dot. Archived from the original on 10 June 2022. Retrieved 15 June 2022.
- ^ Diaz, Ana (15 June 2022). "People are using DALL-E mini to make meme abominations — like pug Pikachu". Polygon. Archived from the original on 15 June 2022. Retrieved 15 June 2022.