← 용어집

AI 안전 · 윤리

AI 안전, 보안, 정렬, 규제, 공정성

11개 용어

AI 안전 · 윤리 LLM · 생성AI
agentic access management
행위적 접근 관리
행위적 접근 관리는 AI 에이전트가 기업 시스템과 상호작용하는 방식을 관리하는 새로운 분야로, 동적이고 의도 기반의 제어와 실시간 책임성을 추가합니다.
LLM · 생성AI AI 안전 · 윤리
AI fraud
AI 사기
AI 사기는 인공지능 기술을 활용하여 사기 행위를 탐지하고 방지하는 방법을 말한다. 이는 대량의 데이터를 분석하여 의심스러운 패턴과 행동을 실시간으로 식별한다.
제품 · 플랫폼 LLM · 생성AI AI 안전 · 윤리
Anthropic
앤트로픽
앤트로픽은 샌프란시스코에 본사를 둔 인공지능 안전·연구 기업으로, 대규모 언어 모델 제품군인 Claude를 개발하고 ‘신뢰할 수 있고, 해석 가능하며, 제어 가능한’ AI 시스템을 만드는 것을 목표로 한다. 공익기업…
AI 안전 · 윤리
closed systems
폐쇄 시스템
폐쇄 시스템은 데이터가 외부로 유출되지 않고 조직 내부에서만 처리되는 시스템을 말하며, 데이터 보안과 기밀성을 유지하는 데 중점을 둔다.
LLM · 생성AI 딥러닝 AI 안전 · 윤리
hallucination
환각
인공지능 환각은 대규모 언어모델(LLM)이나 생성형 AI가 실제로 존재하지 않거나 사실과 다른 내용을 그럴듯하게 만들어 내는 현상이다. 이는 모델이 학습 데이터의 패턴을 바탕으로 다음에 올 말을 예측하는 과정에서 검…
LLM · 생성AI AI 안전 · 윤리
just-in-time access
즉시 접근
즉시 접근은 필요한 작업을 수행할 때에만 사람이나 비인간 주체에게 시간 제한적이고 작업 특정적인 권한을 부여하고, 작업이 완료되면 즉시 그 권한을 철회하는 접근 제어 방식이다.
AI 안전 · 윤리
machine identities
기계 신원
기계 신원은 서비스 계정, 애플리케이션 자격 증명, API 키와 같은 비인간적 계정으로, 데이터와 시스템에 접근할 때 사용되는 디지털 신원을 의미한다.
제품 · 플랫폼 AI 안전 · 윤리
online brand protection
온라인 브랜드 보호
온라인 브랜드 보호는 AI 기술을 활용하여 인터넷 상에서 브랜드의 무단 사용, 사칭 및 기타 위협을 탐지하고 방지하는 프로세스입니다.
LLM · 생성AI ML 기초 AI 안전 · 윤리
open-source models
오픈소스 모델
오픈소스 모델은 모델의 소스 코드, 가중치, 학습 과정과 같은 세부 정보를 공개해 누구나 검사하고, 로컬에서 실행하거나 목적에 맞게 수정·재학습할 수 있는 AI 모델을 말한다. 단순히 API로 사용만 허용하는 ‘오픈…
제품 · 플랫폼 LLM · 생성AI AI 안전 · 윤리
OpenAI
오픈에이아이
오픈에이아이는 인공지능 연구 조직이자 플랫폼으로, 안전하고 유익한 범용 인공지능(AGI)을 지향하며 대규모 기반 모델과 이를 활용하는 서비스·API를 개발·제공한다. GPT 계열의 대형언어모델, DALL·E, Sor…
AI 안전 · 윤리
supply chain vulnerability
공급망 취약점
공급망 취약점이란 소프트웨어, 하드웨어, 데이터 등 IT 시스템을 구성하는 여러 외부 공급자 또는 경로에서 발생할 수 있는 보안상의 약점을 의미합니다. 해커가 직접 시스템을 공격하지 않고, 소프트웨어 라이브러리, 클…