제01권 · 제10호 데일리 디스패치 2026년 4월 25일

최신 AI 뉴스 모음집

AI · 논문데일리 큐레이션공개 아카이브
AI 뉴스Business
약 9분

DeepSeek, 100만 토큰 V4 프리뷰와 저가 요금으로 경쟁사에 압박

중국의 DeepSeek가 프론티어급에 근접했다는 MoE 모델 프리뷰 두 종을 내놓았습니다. 동시에 Cohere는 주권형 AI 합병을 추진하고, Nvidia는 핵심 데이터 인프라에 자금을 댔습니다.

읽기 모드

한 줄 요약

DeepSeek가 저가·100만 토큰 컨텍스트 모델 프리뷰를 공개하고, Cohere–Aleph Alpha는 주권형 AI 합병을 추진하며, Nvidia는 대규모 AI 스토리지에 투자하면서 글로벌 경쟁이 촘촘해진다.

Big Tech

DeepSeek V4 프리뷰: 100만 토큰과 낮은 요금으로 공개

DeepSeek는 중국의 AI 연구소로, 매우 긴 입력을 처리하고 효율적으로 동작하도록 설계한 최신 대형 언어 모델(LLM) 프리뷰 두 종 V4 Flash와 V4 Pro를 공개했다. 두 모델 모두 전문가 혼합(MoE) 구조와 100만 토큰 컨텍스트 윈도를 지원하며, V4 Pro는 총 1.6조 파라미터(요청마다 활성 490억), V4 Flash는 총 2,840억 파라미터(활성 130억)로 전작 V3.2 대비 큰 개선을 내세웠다. 1

DeepSeek는 장기 대화에서 기억 유지력을 높였다는 ‘하이브리드 어텐션 아키텍처(Hybrid Attention Architecture)’ 등 구조적 변화를 강조하며, 추론·에이전트 작업의 향상을 밝혔다. 회사는 V4를 강력한 공개 가중치(open‑weight) 대안으로 제시하며 폐쇄형 경쟁사에 도전장을 낸다. 2

성능 측면에서 DeepSeek는 V4가 추론 벤치마크에서 선두권과의 격차를 거의 좁혔다고 주장하고, 코딩에서는 “GPT‑5.4와 유사한” 결과를 보인다고 밝혔다. 다만 지식 테스트에서는 GPT‑5.4와 Google Gemini 3.1 Pro에 다소 뒤처져 최신 프런티어 모델 대비 3~6개월가량의 개발 격차가 있음을 인정했다. 1

가격은 가장 큰 변화다. V4 Flash는 입력 100만 토큰당 0.14달러, 출력 100만 토큰당 0.28달러이며, V4 Pro는 입력 100만 토큰당 0.145달러, 출력 100만 토큰당 3.48달러로 공시돼 다수의 프런티어급 모델보다 저렴하다. 출시 시점에는 중국의 지식재산권 절도 의혹과 DeepSeek의 모델 증류(distillation) 논란 등 정치·규제 이슈도 맞물려 있다. 1

Industry & Biz

DeepSeek V4, 외부 투자 유치 움직임 속 공개

이번 공개는 중국에서 가장 주목받는 AI 연구소 중 한 곳의 공백을 끝내는 신호로, 미·중 경쟁 심화와 컴퓨팅·인재 비용 상승 국면에서 이뤄졌다. 보도에 따르면 DeepSeek는 첫 외부 투자 유치를 추진 중이며, 이번 공개가 기업가치 산정에 영향을 줄 수 있다. 3

이번 발표는 R1 추론 모델로 미국 경쟁사를 뒤흔든 지 1년 만의 후속 조치다. 중국 진영은 공개 가중치 전략을 통해 글로벌 사용 비중을 키워왔고, DeepSeek도 V4를 공개 소스로 제공할 의향을 밝혔다. 4

구매자 관점에서는 낮은 사용 단가와 공개 가중치 조합이 장문 문서·코드 작업에서 DeepSeek을 유력 대안으로 올려놓는다. WSJ는 이번 공개 타이밍이 투자자 평가에 영향을 줄 수 있다고 전했다. 3

Cohere–Aleph Alpha 합병: 주권형 AI 겨냥한 대서양 횡단 전략

기업용 AI를 제공하는 캐나다의 Cohere가 독일의 Aleph Alpha와 합병해 “대서양 횡단 AI 파워하우스”를 구축하겠다고 밝혔다. 보도에 따르면 합병 후 기업가치는 약 200억 달러로 평가되며, 독일 Schwarz Group이 Cohere의 시리즈 E에 6억 달러를 투자한다. 목표는 기업·정부 고객에게 데이터와 배포에 대한 통제력을 높인 대안을 제공하는 것이다. 5

로이터 보도에 따르면 합병 후 지분은 Cohere 주주 약 90%, Aleph Alpha 주주 약 10%로 예상되며, Cohere CEO는 더 안전하고 주권을 중시하는 기술을 지향한다고 밝혔다. 양사는 에너지, 국방, 금융, 통신, 헬스케어, 공공 부문 등 규제가 엄격한 산업을 중점 대상으로 제시했다. 6

분석 기사들은 이를 유럽의 주권형 AI 야심이 “새 손으로 넘어가는” 사건으로 해석하며, 북미–유럽 합작 플랫폼을 통해 지역별 배포 옵션, 데이터 거주, 맞춤형 모델을 강화할 것으로 본다. 7

Nvidia, Vast Data의 30억 달러 가치 라운드(10억 달러 조달)에 참여

Vast Data는 시리즈 F에서 약 10억 달러를 조달하며 기업가치 300억 달러를 인정받았다. 2023년 말 대비 3배 이상 오른 수치다. 라운드는 Drive Capital과 Access Industries가 주도했고 Fidelity, NEA, Nvidia가 참여해 AI 워크로드용 스토리지·데이터 플랫폼에 대한 신뢰를 보여준다. 8

회사는 누적 예약 40억 달러 이상, 연간 반복 매출 약정(ARR) 5억 달러 이상, 영업·현금흐름 흑자를 밝혔다. Vast는 데이터 스토리지, 컴퓨트, 실시간 처리를 결합한 ‘AI 운영체제’ 접근을 내세운다. 9

의미: AI 팀은 GPU 이전에 데이터 병목에 막히는 경우가 많다. Nvidia의 참여는 데이터 플랫폼까지 포괄하는 스택 전략을 시사한다. 한편 Nvidia 개발자 블로그는 연합 학습을 쉽게 하는 FLARE 같은 도구를 소개하며 규제 친화적 AI 배포를 겨냥한 행보를 보였다. 10

New Tools

DeepSeek V4: 추론 격차를 좁혔다고 밝힌 텍스트 전용 모델

이는 매우 긴 입력을 처리하고 비용을 낮추려는 LLM 프리뷰 두 종(V4 Flash, V4 Pro)이다. 두 모델은 전문가 혼합(MoE) 설계를 통해 요청마다 일부 파라미터만 활성화하고, 100만 토큰 컨텍스트로 대형 코드베이스나 긴 PDF를 한 번에 프롬프트에 담을 수 있다. 1

가격은 동급 대비 이례적으로 낮다. V4 Flash는 입력 100만 토큰당 0.14달러, 출력 100만 토큰당 0.28달러이며, V4 Pro는 입력 100만 토큰당 0.145달러, 출력 100만 토큰당 3.48달러다. DeepSeek는 코딩과 추론 성능을 강조하지만, 이미지·오디오·비디오를 다루는 폐쇄형 경쟁사와 달리 V4는 텍스트 전용임을 밝혔다. 1

법률·정책 문서 요약, 대규모 코드 저장소 분석 등 장문 텍스트 중심 업무라면 100만 토큰과 가격 구조가 모델 구성을 바꿀 수 있다. 반대로 방대한 사실 질의응답에서는 일부 테스트에서 폐쇄형 선두 모델 대비 지식 측면이 뒤처질 수 있음을 인정했다. 1

나에게 주는 의미

낮은 토큰 단가와 100만 토큰 컨텍스트는 200쪽 자료, 전체 계약서, 다중 서비스 코드베이스 같은 입력을 ‘한 번에 넣고 결과만 받는’ 워크플로를 가능하게 한다. 이는 짧은 컨텍스트 모델을 둘러싼 복잡한 검색 증강 구성 요소를 줄여 운영과 유지보수를 단순화한다. 1

규제 산업 종사자에게 Cohere–Aleph Alpha 합병은 데이터 거주·온프레미스 배포·맞춤형 보호장치를 계약 조건으로 담을 수 있는 주권형 AI 선택지가 늘어남을 뜻한다. 조달 과정이 짧아지고 내부 보안 승인이 쉬워질 수 있다. 5

백엔드 준비도 중요하다. Vast Data의 300억 달러 가치 조달은 스토리지 대역폭과 데이터 오케스트레이션이 AI 처리량의 병목이 되기 쉽다는 점을 상기시킨다. 스토리지가 GPU를 충분히 먹여 살리지 못하면 단위 경제성이 악화된다. 초기 단계부터 인프라 리더를 포함시키는 이유다. 9

모델 선택은 콘텐츠에 맞춰야 한다. V4는 텍스트 전용이며 장문 추론·코드에 특화돼 있다. 이미지·오디오·비디오가 필요한 작업은 혼합 구성이 필요하다. 장문 텍스트 분석이 주 업무라면 V4 Flash/Pro의 경제성이 매력적일 수 있다. 1

지금 할 일

  1. 100만 컨텍스트 파일럿 실행: 팀이 어려워하는 장문 문서나 코드베이스 하나를 V4 Flash/Pro로 끝까지 처리해 품질과 총 토큰 비용을 기록하세요.
  2. 월간 비용 절감 추정: 공개된 V4 가격을 기준으로 현재 프롬프트·응답 볼륨에 적용해 기존 모델 대비 지출을 비교하세요.
  3. 주권형 배포 옵션 자료 요청: 규제 산업이라면 Cohere 또는 Aleph Alpha 담당자에게 데이터 거주와 온프레미스 통제 옵션을 문의하세요.
  4. 스토리지 처리량 점검: 인프라/데이터 리더와 30분 미팅을 잡아 GPU 작업의 병목이 될 수 있는 스토리지·네트워크 구간을 함께 지도화하세요.

출처 15

도움이 되었나요?

댓글 (0)