← 용어집

CS 기초

프로그래밍, 자료구조, 알고리즘, 네트워크, OS, 웹 기초

12개 용어

CS 기초 인프라 · 하드웨어 LLM · 생성AI
AI accelerator
AI 가속기
AI 가속기는 인공지능(AI)과 머신러닝(ML) 작업을 빠르고 효율적으로 처리하기 위해 특별히 설계된 하드웨어 장치입니다. 일반적인 CPU와 달리, 대규모 행렬 연산과 병렬 처리를 최적화하여 신경망 학습과 추론 속도…
CS 기초 LLM · 생성AI
AI vision
AI 비전
AI 비전은 인공지능 기술을 활용해 이미지나 영상을 분석하고 이해하는 기술로, 기존의 규칙 기반 머신 비전보다 복잡하고 다양한 시각적 문제를 자동으로 해결할 수 있습니다. 주로 딥러닝을 이용해 사물 인식, 결함 탐지…
CS 기초 LLM · 생성AI
cloud AI infrastructure
클라우드 AI 인프라
클라우드 AI 인프라는 인공지능(AI) 모델의 개발, 학습, 배포, 운영을 위해 클라우드 환경에서 제공되는 컴퓨팅 자원(서버, GPU, TPU 등), 스토리지, 네트워크, 소프트웨어 플랫폼을 통합한 기반 시스템을 의…
CS 기초 LLM · 생성AI
combinator library
조합자 라이브러리
조합자 라이브러리는 여러 개의 작은 함수나 모듈(조합자)을 조립해 복잡한 동작을 쉽게 만들 수 있도록 도와주는 소프트웨어 라이브러리입니다. 주로 인공지능 에이전트, 데이터 처리, 파싱 등에서 다양한 기능을 유연하게 …
CS 기초 LLM · 생성AI
edge AI
엣지 AI
엣지 AI는 인공지능(AI) 모델이나 알고리즘을 클라우드 서버가 아닌 사용자 가까이에 위치한 엣지(Edge) 디바이스에서 직접 실행하는 기술입니다. 이를 통해 데이터가 생성된 현장에서 실시간으로 분석과 의사결정을 내…
CS 기초 LLM · 생성AI
Edge inference
엣지 추론
엣지 추론은 인공지능 모델이 중앙 클라우드가 아닌, 사용자의 가까운 위치(엣지 디바이스나 로컬 서버)에서 직접 데이터를 처리하고 예측 결과를 내는 기술입니다. 이를 통해 실시간 반응성과 낮은 지연 시간, 그리고 클라…
CS 기초 LLM · 생성AI
Inference pipeline
추론 파이프라인
추론 파이프라인은 학습이 완료된 AI 모델이 실제 데이터를 받아 예측 결과를 내기까지 거치는 일련의 처리 단계를 의미합니다. 데이터 전처리, 모델 추론, 후처리 등 여러 과정을 순차적으로 연결해, AI가 실제 서비스…
CS 기초 LLM · 생성AI
inference workload
추론 워크로드
추론 워크로드란 이미 학습된 인공지능 모델이 실제 환경에서 새로운 데이터를 받아 예측, 분류, 생성 등 결과를 내는 작업의 집합을 의미합니다. 이는 AI가 실제로 서비스를 제공할 때 발생하는 계산 작업으로, 모델 학…
CS 기초 LLM · 생성AI
native computer use
네이티브 컴퓨터 사용
네이티브 컴퓨터 사용은 사용자가 컴퓨터나 소프트웨어를 자연스럽고 직관적으로 사용할 수 있도록 설계된 인터페이스나 기능을 의미합니다.
CS 기초 인프라 · 하드웨어 LLM · 생성AI
Oxide LCD
옥사이드 LCD
옥사이드 LCD는 산화물 반도체(주로 IGZO)를 사용한 액정 디스플레이로, 기존 LCD에 비해 전력 소모가 크게 줄고, 1Hz에서 120Hz까지 동적으로 주사율을 조절할 수 있는 최신 기술입니다. 특히 AI 기능이…
CS 기초 인프라 · 하드웨어 LLM · 생성AI
power efficiency
전력 효율
전력 효율은 컴퓨터 시스템이나 AI 하드웨어가 주어진 전력을 얼마나 효과적으로 실제 연산 작업에 사용하는지를 나타내는 지표입니다. 즉, 같은 전력을 사용할 때 더 많은 연산을 처리하거나, 동일한 작업을 더 적은 전력…
CS 기초 LLM · 생성AI
refresh rate
재생률
재생률은 디스플레이 장치가 1초에 화면 이미지를 몇 번 새로 그리는지를 나타내는 값으로, 단위는 헤르츠(Hz)입니다. 예를 들어 60Hz 재생률은 1초에 60번 화면이 갱신된다는 뜻입니다. 이는 프레임레이트(초당 생…