딥시크(DeepSeek)는 2023년에 설립되어 세계적인 수준의 범용 인공지능 기반 모델과 기술 연구에 집중하며, 인공지능의 최전선에 도전하고 있습니다. 자체 개발한 훈련 프레임워크, 자체 구축한 지능형 컴퓨팅 클러스터 및 수만 개의 컴퓨팅 카드 등과 같은 리소스를 바탕으로, 딥시크 팀은 불과 반년 만에 수백억 개의 파라미터를 가진 대형 모델인 DeepSeek-LLM 범용 대형 언어 모델과 DeepSeek-Coder 코드 대형 모델을 발표하고 오픈소스로 공개했습니다. 또한 2024년 1월에는 국내 최초의 MoE 대형 모델(DeepSeek-MoE)을 오픈소스로 공개하며, 각 대형 모델은 공개 평가 및 실제 샘플 외의 일반화 효과에서 동급 모델을 뛰어넘는 뛰어난 성능을 보였습니다. DeepSeek AI와 대화하며, 쉽게 API에 접속할 수 있습니다.