디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[일반] OpenAI의 AI 모델을 능가하는 DeepSeek의..

시타갤로그로 이동합니다. 2024.12.28 15:56:33
조회 123 추천 2 댓글 1

https://www.scmp.com/tech/tech-trends/article/3292507/chinese-start-deepseek-launches-ai-model-outperforms-meta-openai-products

중국 스타트업 DeepSeek, Meta, OpenAI 제품보다 뛰어난 성능의 AI 모델 공개

DeepSeek의 V3 모델은 경쟁사보다 훨씬 적은 컴퓨팅 리소스를 사용하여 558만 달러의 비용으로 2개월 동안 훈련되었다

베이징에서 벤장
게시됨: 2024년 12월 27일 오후 6시 45분
-
-
중국 스타트업 DeepSeek의 새로운 대규모 언어 모델(LLM) 공개가 전 세계 인공지능(AI) 업계에 파장을 일으켰는데, 벤치마크 테스트 결과 Meta Platforms와 ChatGPT 제작자 OpenAI의 언어 모델들을 능가하는 것으로 나타났다.

항저우에 본사를 둔 이 회사는 목요일 위챗 게시물에서 자사의 이름을 딴 LLM인 DeepSeek V3가 671억 개의 파라미터를 포함하고 있으며, 대형 기술 회사에서 개발한 모델보다 훨씬 적은 컴퓨팅 리소스를 사용하여 약 2개월 만에 558만 달러의 비용으로 훈련을 완료했다고 발표했다.

LLM은 ChatGPT와 같은 생성형 AI 서비스의 기반이 되는 기술을 말한다. AI에서, 많은 수의 파라미터는 LLM이 더 복잡한 데이터 패턴에 적응하고 정확한 예측을 할 수 있도록 하는 데 핵심적인 역할을 한다.

OpenAI의 창립 팀원인 컴퓨터 과학자 안드레이 카르파시는 소셜 미디어 플랫폼 X에 올린 글에서 이 중국 스타트업의 새로운 AI 모델에 대한 기술 보고서에 대해 “DeepSeek는 오늘 저예산으로 훈련된 프론티어급 LLM을 오픈 웨이트 Open weights 공개했다.”라고 말했다.

**********
https://x.com/karpathy/status/1872362712958906460

Andrej Karpathy
@karpathy

DeepSeek(중국 AI 공동 개발사)는 오늘 저예산(2개월간 2048개의 GPU, 600만 달러)으로 훈련된 프론티어급 LLM을 오픈 웨이트 공개했다.

참고로, 이 수준의 성능을 구현하려면 1만 6천개에 가까운 GPU 클러스터가 필요하다고들 하지만, 현재 나오고 있는 것들은 그 이상 약 10만 개의 GPU가 필요하다. 예를 들어 Llama 3 405B는 3080만 GPU 시간을 사용했다. 그런데 DeepSeek V3는 280만 GPU 시간(약 11배 적은 컴퓨팅)만 들었는데도 더 강력한 모델인 것 같다. 이 모델이 vibe checks (예: LLM 아레나 랭킹이 진행 중이며 지금까지 몇 가지 간단한 테스트가 잘 진행되었다)도 통과한다면, 그것은 리소스 제약 하에서의 연구 및 엔지니어링의 매우 인상적인 제시일 것이다.

이것은 프론티어 LLM을 위해 대규모 GPU 클러스터가 필요하지 않다는 것을 의미하는가? 필요하지 않다, 하지만 가지고 있는 것을 낭비하지 않아야 하며, 이것은 데이터와 알고리즘 모두에서 아직 해결해야 할 일이 많다는 것을 보여주는 좋은 예시처럼 보인다. 매우 훌륭하고 상세한 기술 보고서도 읽어보았다.

4:23 AM · Dec 27, 2024
**********

오픈 웨이트란 AI 모델의 사전 학습된 파라미터 또는 웨이트만 공개하는 것으로, 제3자가 추론과 미세 조정에만 모델을 사용할 수 있도록 허용하는 것을 말한다. 모델의 학습 코드, 원본 데이터 세트, 아키텍처 세부 정보 및 학습 방법론은 제공되지 않는다.

Meta나 OpenAI와 같은 대기업이 일반적으로 투자하는 비용의 일부만으로 강력한 LLM을 개발한 DeepSeek의 사례는 모델 학습에 사용되는 고급 반도체에 대한 접근을 차단한 미국의 제재에도 불구하고 중국 AI 기업이 얼마나 발전해왔는지 보여준다.

DeepSeek는 비용 효율적인 학습을 위해 설계된 새로운 아키텍처를 활용하여 V3 모델에 278만 GPU 시간(그래픽 처리 장치가 LLM을 학습하는 데 사용되는 총 시간)만 필요했다. 이 스타트업의 훈련 프로세스에는 중국 맞춤형 Nvidia의 H800 GPU가 사용되었다.

이 프로세스는 중국으로 수출할 수 없는 엔비디아의 고급 H100 칩으로 Llama 3.1 모델을 훈련하는 데 필요한 3,080만 GPU 시간보다 훨씬 적은 양이었다. 카파티는 자신의 X 게시물에서 “DeepSeek V3는 280만 GPU 시간만 들었는데도 더 강력한 모델인 것 같다.”라고 썼다.

DeepSeek가 게시한 V3에 대한 기술 보고서에 따르면, 텍스트 이해 및 생성, 도메인 전문 지식, 코딩 및 수학 문제 해결 등 AI 시스템의 능력을 평가하는 일련의 벤치마크 테스트에서 DeepSeek의 LLM이 Meta의 Llama 3.1과 알리바바 그룹 홀딩의 Qwen 2.5보다 뛰어난 성능을 보인 것으로 나타났다. 알리바바는 사우스차이나모닝포스트를 소유하고 있다.

동일한 벤치마크 테스트에서 V3의 결과는 OpenAI의 GPT-4o 및 Amazon.com이 지원하는 Anthropic의 Claude 3.5 Sonnet의 결과와 일치하는 것으로 나타났다.

DeepSeek는 작년 7월 중국 본토에서 가장 큰 퀀트 헤지펀드 중 하나를 운영하기 위해 AI를 사용하는 하이플라이어 퀀트(High-Flyer Quant)에서 분사했다.

항저우에 본사를 둔 하이플라이어는 2019년부터 2020년까지 2억 위안(2,740만 달러)을 들여 AI 클러스터인 파이어플라이어 1을 개발한 데 이어 10억 위안을 더 들여 파이어플라이어 2를 구축했다고 회사 웹사이트에 밝혔다.

지난 4월 발표에서, 하이-플라이어는 DeepSeek의 개발 목표가 “모든 인류에게 도움이 되는 AI”를 만드는 것이라고 말했다. 앞서 DeepSeek는 개발자가 써드 파티 애플리케이션을 개발하는 데 사용하는 일련의 AI 모델과 자체 챗봇을 출시한 바 있다.

추천 비추천

2

고정닉 1

1

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2973 설문 입금 전,후 관리에 따라 외모 갭이 큰 스타는? 운영자 25/01/20 - -
833312 일반 멸공..형이다 입갤했다 스웨디시형(175.127) 01.13 27 0
833311 정보 무안공항사고 건설비리외 보잉랜딩기어결함 군사부분에 돈쏟아그렇네 ㅇㅇ(211.235) 01.13 118 1
833310 일반 어둠의 윤석열 지지자 ㅇㅇ(223.39) 01.13 35 0
833309 일반 종교의 자유는 개나 줘라 케말파샤갤로그로 이동합니다. 01.13 23 0
833308 일반 국가는 어떤식으로 운영돼야 하는가? 케말파샤갤로그로 이동합니다. 01.13 12 0
833307 일반 예수 안믿는 모든 나라를 폭격해야 한다 [1] 케말파샤갤로그로 이동합니다. 01.13 44 0
833306 일반 러시아는 정말정말 가난한 나라임. [1] 러갤러(115.137) 01.13 54 2
833305 정보 민간기업 소방관이 불끄는 La캘리포니아 산불을 예측한 글 ㅇㅇ(211.235) 01.13 65 1
833304 일반 아이패드 프로 5세대 11 Wifi 이거 얼마에 파는게 적당함? ㅇㅇ(211.234) 01.13 31 0
833303 일반 동양에도 귀족있었다면서 왜 서양귀족이 유명함? [1] 러갤러(125.137) 01.13 29 0
833301 일반 군인이 티비 나와서 질질짜는건 이나라밖에 없을듯 ㅇㅇ(125.134) 01.13 42 1
833298 일반 스시녀 촬영가능 인증한다 ㅇㅇ(211.234) 01.13 76 0
833297 일반 케말 박신우가 할 줄 아는게 뭐임? [1] 냠냠꾼(77.111) 01.13 44 0
833296 일반 카톡 계엄령 ㅋㅋㅋㅋㅋㅋ ㅇㅇ(223.39) 01.13 44 0
833295 일반 형이 전문간데 요즘 스시녀 많다 ㅇㅇ(211.234) 01.13 35 0
833290 일반 러시아가 할줄 아는게 뭐임? [1] 케말파샤갤로그로 이동합니다. 01.13 46 0
833289 일반 习 近 平 狗 崽 子 习 近 平 狗 崽 子 냠냠꾼(77.111) 01.13 20 0
833288 일반 러시아 자원 창녀 수출국 맞잔아 ㅇㅇ(211.234) 01.13 40 1
833286 일반 习 近 平 狗 崽 子 냠냠꾼(77.111) 01.13 10 0
833284 일반 러시아가 지하자원 밖에 없는 거지 라고? ㅋㅋㅋ 니들은? [1] 냠냠꾼(77.111) 01.13 40 1
833283 일반 개씹 짱깨 조선족 알바년아 vpn 금지시켜라 냠냠꾼(77.111) 01.13 14 0
833282 일반 야 지가 백인이라고 생각하는 한국인은 없어 ㅇㅇ갤로그로 이동합니다. 01.13 33 0
833281 일반 케말 박신우는 세상에서 제일 거룩하지 못한 이대남 이다. [2] 냠냠꾼(77.111) 01.13 35 0
833280 일반 케말 박신우는 찐따 거지 양아치 사기꾼 [1] 냠냠꾼(77.111) 01.13 30 1
833279 정보 국정원 요원이랑 인터뷰한 북한군 포로.. [16] 민지베어스갤로그로 이동합니다. 01.13 592 28
833278 일반 민주당 권리당원이 탄핵반대집회에 왔습니다 ㅇㅇ갤로그로 이동합니다. 01.13 27 0
833277 일반 "한국에 갑질 일삼은 프랑스 기업의 최후" 시타갤로그로 이동합니다. 01.13 91 2
833276 일반 2024 이뤄지지 못한 러뽕들의 예언 목록 러갤러(175.192) 01.13 56 1
833275 일반 러시아는 나라가 그냥 알리 테무에서 주문한 짝퉁같음 [1] ㅇㅇ(118.235) 01.13 43 4
833274 일반 러시아 거지국가. 맞다 [1] ㅇㅇ(211.234) 01.13 33 1
833273 일반 러시아는 찐따 거지 국가 케말파샤갤로그로 이동합니다. 01.13 32 0
833272 일반 러우갤 선각자 배터리형의 복음을 보면 ㅇㅇ(211.234) 01.13 23 0
833270 일반 미국과 러시아간의 경제규모 격차 러갤러(106.102) 01.13 45 2
833269 일반 계엄문건있다 보이스피싱 유행 ㅋㅋ ㅇㅇ(121.163) 01.13 27 0
833268 일반 러우갤 지도자 배터리형이 말씀하시길 [2] ㅇㅇ(211.234) 01.13 42 0
833267 일반 러우갤 갤주 배터리형님이 말씀하셨다 ㅇㅇ(211.234) 01.13 22 0
833266 일반 멍청한 개돼지 냠냠꾼 사탄믿고 지옥가는중 ㅇㅇ(118.235) 01.13 17 0
833265 일반 멍청한 개돼지 냠냠꾼 사탄믿고 지옥가는중 ㅇㅇ(118.235) 01.13 17 0
833264 일반 멍청한 개돼지 냠냠꾼 사탄믿고 지옥가는중 ㅇㅇ(118.235) 01.13 17 0
833263 일반 멍청한 개돼지 냠냠꾼 사탄믿고 지옥가는중 ㅇㅇ(118.235) 01.13 18 0
833262 일반 멍청한 개돼지 냠냠꾼 사탄믿고 지옥가는중 ㅇㅇ(118.235) 01.13 17 0
833261 일반 한번 샌 바가지는 부셔버리는게 답이다 ㅇㅇ(175.223) 01.13 16 0
833260 일반 유럽전체보다 컸던 구소련의 경제규모 러갤러(106.102) 01.13 44 0
833259 일반 니들 법 읽어봤어? 헌재해설서 읽어봤어? ㅇㅇ(211.234) 01.13 22 0
833258 일반 영국과 러시아간의 경제규모 격차 [2] 러갤러(106.102) 01.13 50 2
833256 일반 두창이 돌아와서 이러면 어쩌냐 ㅋㅋㅋ ㅇㅇ(175.223) 01.13 21 0
833255 일반 석열이형은 민주당 해체가 목적 [1] ㅇㅇ(211.234) 01.13 37 0
833254 일반 ㅋㅋㅋ석열이형은 돌아온다 ㅇㅇ(211.234) 01.13 38 0
833252 일반 한국은 여야 어디가 되던 끝난거임 ㅇㅇ(211.105) 01.13 35 0
833251 일반 윤두창도 이제 인용될거 아나보네 [1] 하프앤하프갤로그로 이동합니다. 01.13 56 0
뉴스 채연, 20년간 변함 없는 아름다움 비결은? 디시트렌드 10:00
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2