에이전트 실전화 가속: GPT‑5.5 배포, MS–OpenAI 멀티클라우드, 펜타곤 Gemini 확대, 엔비디아 Vera CPU 공개
에이전틱 AI가 실전에 들어섰다: GPT‑5.5는 다단계 업무를 겨냥하고, 오픈AI는 멀티클라우드·정부 채널을 열었으며, 펜타곤은 Gemini를 수백만 명으로 확대하고, 엔비디아는 에이전트 루프용 CPU를 공개했다. 이번 주 달라진 점과 직접 해볼 실험 한 가지를 짚었다.
이번 주 한 줄
오픈AI가 유료 ChatGPT 등급에 GPT‑5.5를 배포하고, 마이크로소프트와 오픈AI가 멀티클라우드를 허용하도록 독점을 해소했으며, 미 국방부가 GenAI.mil에서 수백만 명 규모로 Gemini를 확대하고, 엔비디아가 에이전트 루프용 CPU를 공개 — 에이전트가 데모를 넘어 일상 워크플로로 진입 중이다.
이번 주 숫자
- 6,000억 달러 — 2026년 마이크로소프트·알파벳·아마존·메타의 AI 설비투자(추정); AI 지출의 시장 단위 시험대. 1
- 1,000만 — WhatsApp, Messenger, Instagram 전반에서 메타 비즈니스 AI가 주간 처리하는 대화 건수. 2
- 300만 — 미 국방부 GenAI.mil에서 Gemini 3.1 Pro 접근 자격이 있는 사용자 수; 이미 130만+ 활성. 3
- 9배 — 유사한 상호작용성 조건에서 Nemotron 3 Nano Omni가 다른 오픈 ‘omni’ 모델 대비 주장하는 처리량 향상. 4
- 88 — 에이전틱 워크로드용 엔비디아 Vera CPU의 커스텀 Olympus 코어 수. 5
- 11억 달러 — Ineffable Intelligence가 유치한 시드 자금; 신설 연구소 가치 51억 달러. 6
- 5억 유로 — Schwarz Group이 Cohere–Aleph Alpha 제휴를 뒷받침한 구조화 금융. 7
TOP 뉴스
OpenAI, 유료 ChatGPT에 GPT‑5.5 출시
OpenAI는 ChatGPT Plus, Pro, Business, Enterprise 전반에 GPT‑5.5를 출시하고, Pro/Business/Enterprise용 GPT‑5.5 Pro도 제공했다. 이 모델은 다단계 작업(코딩, 리서치, 데이터 분석, 컴퓨터 사용)을 겨냥하며 Terminal‑Bench 2.0(82.7%), SWE‑Bench Pro(58.6%), GDPval(84.9%), OSWorld‑Verified(78.7%), Tau2‑bench Telecom(98.0%)에서 GPT‑5.4 대비 향상을 보고했고, 토큰당 지연 시간은 동등하다고 밝혔다. 8
OpenAI는 계획 수립, 도구 사용, 자기 점검 개선을 강조했고, 내부 팀은 시간 절감 효과를 언급했다; 추가 안전장치가 갖춰지는 대로 “매우 곧” API(application programming interface) 접근을 열겠다고 했으며, 안전성 평가와 레드팀 절차가 출시를 뒷받침했다고 설명했다. 8
마이크로소프트–오픈AI, 독점 완화로 멀티클라우드 허용
마이크로소프트와 오픈AI는 파트너십을 재조정해 오픈AI가 어떤 클라우드에서도 판매할 수 있게 되었고, 마이크로소프트는 2032년까지 오픈AI 기술에 대한 라이선스를 유지하며 오픈AI 지분 가치는 1,350억 달러 이상으로 평가된다. 9
Azure는 여전히 “선출시(ship first)” 기본 경로로 남고, 수익 공유 조건이 조정되며, AGI(artificial general intelligence) 트리거는 제거됐다 — VentureBeat는 이를 독점의 종식으로 해석하며 AWS(Amazon Web Services)와 Google Cloud에서의 경쟁이 열렸다고 전했다. 10 11
펜타곤, GenAI.mil에 Gemini 3.1 Pro 추가 — 최대 300만 명 대상
미 국방부의 GenAI.mil은 Google Cloud의 Gemini 3.1 Pro를 광범위하게 제공하기 시작했으며, 최대 300만 명이 이용 자격을 갖추고 이미 130만 명 이상이 활성 사용자라고 밝혔다; 관계자들은 이 도구들이 Impact Level 5 환경에서 운영되며, 10만 개가 넘는 AI 에이전트 구축을 가능하게 했다고 말했다. 3 12
이번 확대는 벤더 내부의 허용 가능한 사용에 대한 논쟁이 이어지는 가운데, 정부가 프런티어 모델을 더 빠르게 채택하고 있음을 보여준다. 3
엔비디아, 에이전틱 AI 병목 겨냥 Vera CPU 공개
엔비디아는 에이전틱 루프와 강화학습(RL) 사후 학습을 위해 설계된 데이터센터용 CPU인 Vera를 공개했다: 맞춤형 Olympus 코어 88개, 최대 1.2 TB/s의 LPDDR5X 메모리 대역폭, 경쟁 x86 플랫폼 대비 최대 1.5배 높은 에이전틱 샌드박스 성능을 제공한다. 5
Vera 랙은 최대 256개의 CPU를 통합하고 동시 CPU 환경 2만 2,500개(22.5K+) 이상을 지원하며, OEM(original equipment manufacturer) 시스템은 2026년 하반기(H2 2026)에 출시될 전망이다. 13
엔비디아, 통합 멀티모달 모델 Nemotron 3 Nano Omni 출시
Nemotron 3 Nano Omni는 비디오·오디오·이미지·텍스트를 단일 오픈 모델로 통합했으며, 엔비디아는 유사한 상호작용성을 기준으로 다른 오픈 “omni” 모델 대비 최대 9배 높은 처리량을 제공한다고 주장한다. 배포는 Hugging Face, OpenRouter, NVIDIA NIM을 통해 이뤄진다. 4
후드 아래에는 비전·오디오 인코더가 통합된 30B‑A3B 하이브리드 MoE(Mixture of Experts) 백본이 있으며, 체크포인트는 BF16/FP8/FP4 포맷으로 제공된다. 동반 논문은 모달리티 전반의 정확도 향상을 상세히 설명한다. 14
Anthropic, 실거래 기반 에이전트‑대‑에이전트 커머스 파일럿
Anthropic은 일주일간의 내부 마켓플레이스에서 69명의 직원을 대표하는 AI 에이전트들이 인적 승인 없이 협상 단계의 등록, 제안, 카운터오퍼를 처리하며 총 186건, 합계 4,000달러 조금 넘는 규모의 거래를 체결했다고 밝혔다. 더 강력한 모델을 쓴 참가자일수록 더 나은 성과를 냈고, 약한 모델을 쓴 사용자는 격차를 자주 인지하지 못했다. 15
보도는 이번 파일럿의 소규모를 지적하는 한편, ‘에이전트 품질’ 격차가 향후 거버넌스 과제로 떠오를 수 있음을 부각했다. 16
OpenAI, FedRAMP·AWS 경로 개방(Bedrock 연동)
오픈AI는 ChatGPT Enterprise와 OpenAI API Platform이 미 연방 위험 및 승인 관리 프로그램(FedRAMP) Moderate 승인을 받아, 미 연방기관이 컴플라이언스 환경에서 오픈AI를 사용할 수 있게 됐다고 밝혔다(기관 결정에 따라 GPT‑5.5 접근 포함). 17
오픈AI는 또한 GPT‑5.5를 포함한 자사 모델을 Amazon Bedrock으로 가져오고, 오픈AI가 구동하는 Bedrock Managed Agents를 제한적 프리뷰로 도입했으며, AWS의 신원·보안·조달 흐름에 맞추도록 설계했다; 아울러 업데이트된 운영 원칙도 공개했다. 18 19
Cohere, Schwarz 5억 유로 지원 속 Aleph Alpha 인수·합병
Cohere는 독일의 Aleph Alpha를 인수·합병하기로 합의했으며, Schwarz Group이 5억 유로(€500M)의 구조화 금융을 제공하고 주권 클라우드 STACKIT 활용도 유력하다 — 데이터 통제와 유럽어 지원을 원하는 규제 산업 고객을 겨냥한 행보다. 7
보도에 따르면 합병 법인은 Cohere 이름을 유지하고 약 200억 달러의 밸류에이션을 목표로 하며, 지분은 Cohere/Aleph Alpha가 대략 90%/10%로 나눌 예정이다(승인 대기). 20
Aidoc, 임상 AI 영상 확장 위해 1.5억 달러 조달
Aidoc은 Goldman Sachs Alternatives가 리드한 시리즈 E에서 1.5억 달러를 유치했다. 해당 회사는 FDA 승인 31건과 미국 내 약 200개 보건 시스템, 전 세계 1,600개 이상 병원에의 배포를 인용하며, 보다 광범위한 임상 AI 모델과 추가 규제 작업에 자금을 투입할 계획이다. 21
기존 강자와 스타트업 간 경쟁이 치열한 가운데, 이번 조달은 응급실 선별(ED triage)과 복부 소견 등 영상 워크플로에서의 엔터프라이즈급 실전 채택을 시사한다. 21
하이퍼스케일러 실적, AI 설비투자와 수익성 검증대에
실적 발표가 4월 29일에 몰리며, 옵션 시장은 투자자들이 마이크로소프트·알파벳·아마존·메타의 2026년 AI 설비투자 6,000억 달러를 저울질함에 따라 주가 변동을 ≥4%로 가격에 반영했다(이들 그룹의 시가총액은 10조 달러, S&P 500의 약 17%). 1
알파벳은 Google Cloud 매출 200억 달러(전년 대비 63% 증가)와 분기 대비 거의 두 배로 늘어난 4,620억 달러의 백로그를 발표했으며, AWS는 376억 달러, Microsoft Cloud는 545억 달러를 기록했다. 마이크로소프트는 4분기(Q4) 설비투자를 400억 달러 이상으로 가이던스하고, 지출의 3분의 2가 GPU와 CPU에 투입되면서 2026년까지 용량 제약이 지속된다고 밝혔다. 22
이번 주 트렌드 분석
모델·인프라·배포 뉴스 전반에서 ‘에이전틱(agentic)’ 시스템으로의 분명한 전환이 나타났다. 오픈AI의 GPT‑5.5는 다단계 작업에 초점을 맞추고, 엔비디아의 Vera CPU는 CPU 병목인 에이전트 루프를 겨냥하며, Nemotron 3 Nano Omni는 비전·오디오·텍스트를 통합해 지각(hand‑off) 단계를 줄인다 — 계획하고, 도구를 쓰고, 스스로 점검하는 더 빠르고 신뢰성 높은 소프트웨어로의 흐름을 가리킨다. 8 5 4
동시에 유통 경로와 거버넌스도 넓어졌다. 마이크로소프트와 오픈AI는 Azure 독점을 풀어 오픈AI가 어떤 클라우드에서도 판매할 수 있게 했고, 오픈AI는 정부용 컴플라이언스 경로(FedRAMP Moderate)와 Amazon Bedrock 내 엔터프라이즈 경로를 추가했다. 구매자 관점에서는 지연 시간, 데이터 레지던시, 조달 적합성에 대한 협상력이 커지고, 플랫폼 제약 때문에 파일럿을 막을 이유가 줄어든다. 9 17 18
채택 신호는 실제 워크플로에 집중됐다: 메타의 비즈니스 AI가 주간 약 1,000만 건의 고객 대화를 처리했고, Aidoc은 수십 건의 FDA 승인을 바탕으로 임상 영상 AI 확장을 위해 1.5억 달러를 조달했으며, 하이퍼스케일러 실적은 클라우드 성장과 용량 계획(6,000억 달러 설비투자, 대규모 백로그)을 부각했다. 무게중심은 모델 헤드라인에서 측정 가능한 처리량, 가드레일, ROI로 이동 중이다. 2 21 22
공공 부문 움직임은 두 번째 앵커를 더했다: 펜타곤의 GenAI.mil은 최대 300만 명으로 Gemini를 확장했고, 국방부는 AI 도구를 기밀망으로 가져오기 위한 합의도 체결했으며, Anthropic의 소규모 에이전트‑대‑에이전트 커머스 실험은 모델 티어 간 결과 격차를 부각했다. 결론: 역량은 상승 중이지만, 사용 정책과 모델 선택이 결과를 눈에 띄게 좌우한다. 3 23 15
주목할 포인트
- 출시 임박 ‘GPT‑5.5 API’ — 오픈AI는 추가 안전장치와 함께 “매우 곧” API 접근을 연다고 밝혔다; 가용성과 사용 정책을 주시. 8
- 규제 승인 ‘Cohere–Aleph Alpha’ — EU 공공부문에 주권형 AI 제안이 얼마나 빨리 안착하는지는 규제 심사와 STACKIT 배포 속도가 가늠자. 7
- 출하 일정 ‘Vera’ — 엔비디아 Vera(OEM, 2026년 하반기)의 타임라인이 에이전틱 CPU 용량이 데이터센터에 얼마나 빠르게 도달하는지 가늠하게 한다. 13
이번 주 오픈소스
- 오픈소스 ‘Qwen Code’ — 로컬·호스티드 모델에 꽂아 쓰는 터미널 네이티브 코딩 에이전트; 프로바이더 유연성과 프라이버시를 원하는 CLI 우선 개발자에게 적합. QwenLM/qwen-code
- 오픈소스 ‘promptfoo’ — 재현 가능한 프롬프트/에이전트/RAG 테스트 러너(CI 통합); 품질·비용·지연 시간의 팀 단위 기준선 수립에 유용. promptfoo/promptfoo
- 오픈소스 ‘Skyvern’ — 대규모 언어모델+비전을 활용한 브라우저 자동화; 취약한 스크립트를 넘어 로그인–이동–추출 플로우를 확장. Skyvern-AI/skyvern
- 엔비디아 ‘TensorRT‑LLM’ — 대규모 모델 고성능 추론 스택; 커널·스케줄링 최적화를 Python/C++ API 뒤로 통합. NVIDIA/TensorRT-LLM
- 로컬 서버 ‘vllm‑mlx’ — Apple Silicon용(MLX 백엔드) OpenAI/Anthropic 호환 로컬 서버; 연속 배칭과 멀티모달 지원. waybarrios/vllm-mlx
이번 주 해볼 것
- 실제 업무에 GPT‑5.5 투입: 주간 리포트나 스프레드시트를 끝까지 계획–완료하게 하고, 현재 플로우 대비 품질·시간·토큰을 비교. 8
- Google × Kaggle 무료 AI Agents Intensive(6월 15–19일) 등록: 일주일 내 출하 가능한 업무 연관 캡스톤을 선택. 24
- IT와 함께 AWS Bedrock에서 OpenAI 파일럿: 현재 쓰는 프롬프트 플로우를 그대로 돌려 지연·보안 적합성·과금 평가. 18
- Adobe Firefly AI Assistant(퍼블릭 베타) 테스트: 제품 사진 1장을 플랫폼 준비용 소셜 에셋 세트로 확장하고 소요 시간을 측정. 25
- 배포 전 모델 계보 검증: Cisco Model Provenance Kit으로 한 모델을 지문화하고 조직의 AI 인벤토리에 보관. 26
댓글 (0)