GAN으로 갑골문을 함께 읽는 날, 메모리·위키 도구도 한 단계 진화했어요
GAN을 얹은 인간–AI 협업이 갑골문 판독에서 사람 단독·AI 단독을 모두 이겼어요. 한편 오픈소스에선 ‘기억하는 AI’와 스스로 갱신되는 위키가 RAG를 넘어가고 있습니다.
한 줄 요약
GAN을 활용한 인간–AI 협업이 갑골문 판독에서 사람 단독·AI 단독보다 앞섰고, 오픈소스에선 일회성 RAG를 넘어 ‘기억하고 연결하는’ 위키·메모리 도구가 뜨고 있어요.
Research Papers
Human–computer collaborative approach to the decipherment of oracle bone inscriptions with generative adversarial networks (Nature)
낡은 비문을 읽는 일을 흐릿한 사진을 복원하듯 푼다고 생각하면 이해가 쉬워요. 손상된 갑골 문자에서 모델이 그럴듯한 현대 글자를 “생성”해 주면 사람이 최종 후보를 고르는 방식이에요. 연구진은 판독을 이미지 간 변환 문제로 정식화하고 Pix2PixGAN과 CycleGAN을 결합한 이중 경로를 설계, ‘갑골→간화자’ 이미지 1,160쌍으로 학습·테스트한 뒤 미해독 비문 150건에 적용해 표준화된 인간–AI 협업 파이프라인을 만들었습니다. 1
왜 중요한가요: 추가로 해독이 끝난 160개 표본에 대해 AI 단독, 사람 단독, AI+사람을 모두 평가했고, 표준 글자 대비 PSNR, SSIM, LPIPS와 다전문가 평가로 비교했어요. 결과는 명확합니다. GAN 보조 협업이 구조 충실도, 지각 품질, 전문가 수용성에서 둘 다(사람만·AI만)보다 “유의미하게” 우수했어요. 쉽게 말해, 기계는 후보 폭을 빠르게 좁히고, 인간은 더 나은 최종 결정을 내립니다. 1
스케일의 문제도 커요. 아직 해독되지 않은 문자가 약 2,500개나 되고, 수작업만으로는 전체 자료의 속도를 따라가기 어렵습니다. 측정 가능한 인간-중심 워크플로우는 문화유산 AI의 확장 경로를 보여줘요 — 모델이 빠르게 거르고, 학자가 맥락 판단을 더합니다. PSNR/SSIM/LPIPS 같은 지표는 설정 간 성능 비교와 개선 방향을 잡는 공통 언어가 됩니다. 1
관련 맥락: 별도 연구는 5만5천 개가 넘는 갑골문을 분석해 물리 기반 기후 시뮬레이션과 결합, 기원전 약 1850–1350년 사이 내륙까지 파고든 태풍 증가와 홍수·사회적 압력을 연결합니다. 대량 해독이 가능해질수록, 텍스트는 더 넓은 역사적 신호를 풀어낼 수 있어요. 2
Open Source & Repos
MemPalace: “전부 저장하고, 찾기 쉽게” 만드는 AI 기억 시스템
MemPalace는 “최고 점수의 AI 메모리 시스템”을 자처하며, 보존 대상을 AI가 고르게 하지 않고 대화 전체를 저장합니다. 그리고 고대 연설가의 기억술처럼 궁전(팔레스) 은유 — 날개(사람·프로젝트), 홀(메모리 유형), 방(아이디어) — 로 구성해 나중에 정확히 꺼내 쓰게 해줘요. 즉, 매번 취향이나 결정을 다시 설명할 필요가 줄어요. 3
현실의 마찰도 보입니다. 구형 머신에서 ONNX 임베딩을 CPU로 돌리면 파일당 15–20분이 걸린다는 보고가 있었고, 커뮤니티는 더 작은 문장 임베딩 모델(예: all‑MiniLM‑L6‑v2 약 80MB vs all‑mpnet‑base‑v2 약 420MB), 파일 배치 축소, CLI 사용으로 오버헤드 줄이기 등을 제안했어요 — 정확도와 속도의 전형적 절충이죠. 4
보안도 화두예요. MCP 서버가 17개 도구를 노출하는데, 입력 검증 불일치, 인자 주입, 스레드 안전성, 자원 제한, WAL 노출 등 9가지 이슈를 정리한 RFC가 올라왔습니다. 제안은 일관된 정규화, 디스패치 필터링, 스레드 로컬 SQLite, 쓰기 속도 제한, WAL 로테이션/해시, 탐색 깊이 상한, 구조적 에러 처리 등을 포함해 에이전트가 영구 저장소에 쓰는 환경의 리스크를 낮춥니다. 5
LLM Wiki: 스스로 갱신되는 개인 위키
LLM Wiki는 문서를 읽어 구조화된 위키를 만들고 지속적으로 최신 상태를 유지하는 데스크톱 앱이에요. “매번 검색해 답하는” 방식에서 “한 번 조직하고 계속 유지”로 옮겨갑니다. 체인 오브 소트(Chain-of-Thought) 2단계 적재와 4-신호 지식 그래프(직접 링크, 출처 중첩, Adamic–Adar, 타입 친화도)로 페이지 일관성과 출처 추적성을 확보합니다. 6
커뮤니티 가이드도 힘을 보탭니다. Karpathy 스타일의 LLM 위키를 만드는 법 — 임시 RAG 대신 구조화된 마크다운, 3계층 아키텍처, Obsidian/Claude Code 워크플로우 — 를 자세히 다루며, 대규모 개인 지식에선 이식성과 로컬 우선이 중요하다는 점을 강조해요. 7
인접 실험으로, LLM‑Wikidata는 ChromaDB로 기존 엔티티를 우선 소환해 중복 생성(유사 엔티티 양산)을 줄이고, 상호작용 가능한 graph.html을 내보내며 Mock 모드로 로컬 디버깅을 돕습니다 — “현실 세계 코퍼스”를 다룰 때 유용한 실무 옵션이죠. 8
Fireworks Tech Graph: 자연어를 출판급 다이어그램으로
이 Claude Code 스킬은 자연어 시스템 설명을 받아 깔끔한 SVG 다이어그램으로 만들고, rsvg-convert로 고해상도 PNG까지 내보냅니다. 8가지 다이어그램 유형과 5가지 스타일을 지원하고, RAG·툴콜·멀티에이전트 같은 AI/에이전트 도메인 패턴도 내장해 빠르게 일관된 아키텍처 그림을 뽑을 수 있어요. 9
화이트보드 감성을 원하면 Excalidraw 제너레이터 스킬이 대안이에요. 9가지 유형을 지원하고 .excalidraw JSON을 바로 생성해 웹/VS Code에서 열 수 있으며, 레이아웃 가이드·요소 수 권장치로 가독성을 보장합니다 — AI가 그린 그림의 “적정 복잡도”를 관리해줘요. 10
주변 생태계도 단단해집니다. ‘awesome‑claude‑code’에는 설치형, 깃 네이티브 지식 그래프 메모리(순수 Bash, 이벤트당 약 3ms)가 소개되고, 구조화된 브레인스토밍·서브에이전트 기반 개발 같은 “슈퍼파워” 가이드는 일회성 프롬프트에서 재현 가능한 워크플로우로의 전환을 돕습니다. 11 12
Claude Memory Compiler: 대화를 지식으로 ‘컴파일’
Claude Memory Compiler는 벡터DB 없이, Claude Code 후킹으로 세션 대화를 캡처하고 Claude Agent SDK로 결정·교훈을 추출해 상호참조되는 마크다운 아티클로 컴파일합니다. 검색은 단순 인덱스 파일로 처리 — “내 대화가 문서가 된다”의 최소·투명 버전이에요. 13
이는 깃 네이티브 메모리 접근과도 궤를 같이합니다. 세션 간 학습된 컨벤션과 맥락을 남겨 다음 세션이 바로 이어받게 해 주는 도구들이 소개되고 있어요. 핵심은 ‘연속성’ — 같은 말을 반복하는 시간을 줄이고 이전 작업 위에서 바로 이어가는 겁니다. 11
현장 통합 사례에선 지식 그래프가 에이전트 행동을 바꾸며 성과를 냅니다. 그래프를 우선 읽게 하자 토큰 사용이 크게 줄고 답변 완결성은 올라갔어요(예: 리팩터 영향 질문에 그래프 적용 ~4k 토큰 vs 미적용 ~15k 토큰). 검색 전에 ‘지도를 준다’는 게 구조화 메모리의 실익이에요. 14
커뮤니티 반응
Hacker News (66↑) — MemPalace에는 향수 섞인 농담과 함께 벤치마크 주장에 대한 회의가 공존해요. 깃허브 이슈의 실제 엔드투엔드 QA 성능 수치를 근거로 의문을 제기하는 흐름이 보입니다.
"It will always be the Leeloo Dallas Memory Palace to me." — Hacker News
Hacker News (296↑) — LLM Wiki는 로컬/온디바이스 위키 구축과 마크다운 이식성, 무거운 벡터DB 없이도 페이지를 잘 엮는 패턴 공유가 활발하며 실용적이라는 호평이 많아요.
왜 중요한가
메시지는 하나예요. “기계가 거르고 인간이 판단”하는 구조가 더 잘 됩니다. GAN+전문가 협업이 사람만·AI만보다 우수했던 것처럼, 기억하는 시스템(메모리·위키·컴파일러)은 매번 처음부터 검색하는 수고를 줄여요. 문화유산 연구든 팀 지식 관리든, 구조화·지속화가 성과를 만듭니다. 1 6
실무자 입장에선 ‘기억과 연결’에 투자하세요. 메모리 팔레스, 자동 갱신 위키, 대화 컴파일러 중 하나만 도입해도 재설명 시간을 줄이고 놓치는 맥락을 줄일 수 있어요. 3 13
댓글 (0)