← 용어집

ML 기초

전통 ML 알고리즘, 학습 이론, 평가 방법

20개 용어

ML 기초 LLM · 생성AI
Agentic workflows
에이전트 워크플로우
에이전트 워크플로우는 여러 개의 전문화된 AI 에이전트가 서로 상호작용하며 계획·추론·도구 사용을 통해 다단계 문제를 자율적으로 해결하도록 설계된 동적 작업 흐름을 말한다. 단일 에이전트나 고정된 순서의 정적 플로우…
ML 기초
algorithmic overhaul
알고리즘 개편
알고리즘 개편은 기존의 알고리즘을 개선하거나 완전히 새롭게 설계하여 성능을 향상시키고, 더 나은 사용자 경험을 제공하는 과정을 의미한다.
LLM · 생성AI 딥러닝 ML 기초
BERT
버트
BERT는 2018년 Google이 공개한 트랜스포머 기반의 양방향 언어 표현 모델로, 문장을 왼쪽과 오른쪽 방향을 동시에 고려해 단어의 문맥을 이해하도록 사전학습(pretraining)한 뒤 다양한 NLP 태스크에…
ML 기초
evolutionary search
진화적 탐색
진화적 탐색은 생물의 진화 원리를 모방해 다양한 해답을 자동으로 만들어내고, 그중 가장 성능이 좋은 해답을 반복적으로 선택·변형하여 최적의 결과를 찾는 AI/IT 분야의 탐색 방법이다. 최근에는 LLM 기반 에이전트…
ML 기초 수학 · 통계
F1-Score
F1 점수
F1 점수는 분류 모델의 성능을 평가할 때 정밀도(precision)와 재현율(recall)을 하나의 값으로 균형 있게 결합한 지표로, 두 값의 조화평균이다. 특히 데이터가 불균형할 때 정확도만으로는 드러나지 않는 …
LLM · 생성AI 딥러닝 ML 기초
LLM
대규모 언어 모델
대규모 언어 모델(LLM)은 방대한 텍스트 데이터로 학습된 딥러닝 모델로, 인간 언어를 이해하고 생성하는 데 특화되어 있다. 주로 트랜스포머 아키텍처와 자기-어텐션을 사용하며, 다음 단어 예측 같은 자기지도 학습과 …
ML 기초
MARL
다중 에이전트 강화학습
다중 에이전트 강화학습은 여러 개의 인공지능 에이전트가 같은 환경에서 서로 상호작용하며 학습하는 AI 기술로, 각 에이전트는 자신의 행동을 통해 보상을 얻고, 협력하거나 경쟁하면서 최적의 전략을 찾는다.
ML 기초 LLM · 생성AI
multi-stage training
다단계 학습
다단계 학습은 AI 모델, 특히 대형 언어 모델(LLM)을 개발할 때 여러 단계에 걸쳐 데이터를 다르게 활용하며 점진적으로 모델을 개선하는 학습 방식이다. 각 단계는 사전학습, 중간학습, 후학습 등으로 나뉘며, 각 …
LLM · 생성AI 딥러닝 ML 기초
multimodal
멀티모달
멀티모달은 텍스트, 이미지, 오디오, 비디오 등 서로 다른 형태(모달리티)의 데이터를 동시에 처리하고 통합해 더 정확하고 풍부한 이해를 만드는 인공지능 접근이다. 각 모달의 정보를 정렬·융합하여 단일 모달보다 더 강…
LLM · 생성AI 딥러닝 ML 기초
NLP
자연어 처리
자연어 처리(NLP)는 컴퓨터가 인간의 언어를 읽고, 이해하고, 생성하도록 만드는 인공지능의 한 분야다. 텍스트와 음성을 분석해 의미를 파악하고 문맥에 맞게 반응하거나 새로운 문장을 만들어내며, 언어학과 머신러닝(특…
LLM · 생성AI ML 기초 AI 안전 · 윤리
open-source models
오픈소스 모델
오픈소스 모델은 모델의 소스 코드, 가중치, 학습 과정과 같은 세부 정보를 공개해 누구나 검사하고, 로컬에서 실행하거나 목적에 맞게 수정·재학습할 수 있는 AI 모델을 말한다. 단순히 API로 사용만 허용하는 ‘오픈…
ML 기초 LLM · 생성AI
post-training
후 훈련
후 훈련은 AI 모델이 초기 데이터셋으로 학습된 후, 성능을 향상시키고 실질적인 요구 사항을 충족하기 위해 모델을 정제하고 최적화하는 과정입니다.
ML 기초 LLM · 생성AI
pre-training
사전 훈련
사전 훈련은 머신러닝 모델을 대규모의 일반적인 데이터셋으로 초기화하여, 이후 특정 작업에 맞게 미세 조정하는 과정을 의미한다.
LLM · 생성AI ML 기초 데이터 엔지니어링
RAG
검색 증강 생성
검색 증강 생성(RAG)은 대규모 언어 모델이 답을 만들기 전에 외부 지식베이스에서 관련 정보를 먼저 찾아(검색) 그 문맥을 함께 넣어 생성하도록 하는 아키텍처다. 고정된 학습 데이터만으로는 최신성·정확성이 떨어질 …
ML 기초
reinforcement learning
강화 학습
강화 학습은 AI 에이전트가 환경으로부터의 피드백을 통해 최적의 결과를 달성하는 방법을 배우는 기계 학습의 한 유형이다.
ML 기초 LLM · 생성AI
RLHF
인간 피드백 기반 강화학습
인간이 직접 평가하거나 수정한 결과를 바탕으로 AI가 더 나은 행동을 학습하도록 만드는 강화학습 방법입니다. 주로 대형 언어 모델(LLM)에서 자연스러운 답변과 안전성을 높이기 위해 사용됩니다.
LLM · 생성AI 딥러닝 ML 기초
Self-Attention
셀프 어텐션
셀프 어텐션은 입력 안의 각 요소가 같은 입력의 다른 모든 요소를 비교해, 무엇에 더 집중해야 하는지 가중치를 계산한 뒤 그 정보를 종합해 새로운 표현을 만드는 메커니즘이다. 트랜스포머에서 핵심 역할을 하며, 멀리 …
ML 기초 LLM · 생성AI
supervised fine-tuning
지도 미세 조정
지도 미세 조정은 이미 사전학습된 AI 모델에 사람이 직접 정답을 달아준 데이터(라벨링 데이터)를 추가로 학습시켜, 특정 작업이나 목적에 더 잘 맞게 성능을 높이는 과정입니다. 이 방식은 모델이 실제로 원하는 답을 …
LLM · 생성AI 딥러닝 ML 기초
Transformer
트랜스포머
트랜스포머는 입력 시퀀스(텍스트, 음성 등) 내 각 토큰이 서로를 **self-attention**으로 참조하도록 설계된 신경망 아키텍처로, 전체 시퀀스를 병렬 처리하며 번역, 요약, 분류, 텍스트 생성 같은 작업을…
ML 기초
variation operator
변이 연산자
변이 연산자는 진화 알고리즘에서 다양한 해답(코드, 모델 등)을 만들기 위해 기존 해답을 수정하거나 조합하는 역할을 하는 핵심 구성 요소다. 최근에는 LLM(대형 언어 모델) 기반 에이전트가 스스로 코드 수정, 검증…