#논문리뷰
21개의 글
AI / LLM
Transformer 없이 언어 모델 만들기 — Mamba(SSM) 완전 정복4분Attention의 O(T²) 병목을 없앤 상태 공간 모델(SSM) Mamba의 핵심 원리를 파헤칩니다. 선택적 상태 공간, 하드웨어 인식 병렬화, 그리고 Transformer와의 성능 비교까지 정리합니다.
AILLM논문리뷰MambaSSM상태공간모델아키텍처딥러닝AI / AGENT
KGGen: 텍스트에서 지식 그래프를 생성하는 새로운 방법2분평문(plain text)으로부터 자동으로 고품질 지식 그래프를 생성하는 KGGen 논문 리뷰. 동의어 군집화로 희소성을 줄이고 새로운 평가 기준 MINE을 제안한 접근법을 정리합니다.
AINLP논문리뷰지식그래프KGGenPythonLLMGraphRAGAI / LLM
Engram: LLM에 '기억의 서랍'을 달아주다6분DeepSeek-AI & Peking University가 발표한 Engram 논문 리뷰. N-gram 해싱 기반 조건부 메모리로 MoE의 '조건부 계산'을 보완하여 추론 능력까지 향상시키는 원리를 정리합니다.
AILLM논문리뷰DeepSeekMoE메모리스케일링아키텍처AI / AGENT
대규모 코드베이스를 정복하는 AI 코딩 에이전트: Confucius Code Agent 깊이 파헤치기6분Meta와 Harvard가 공동 발표한 Confucius Code Agent(CCA) 논문 리뷰. AX/UX/DX 분리, 계층적 컨텍스트 관리, Hindsight Notes, 메타 에이전트 등 핵심 메커니즘을 코드와 함께 정리합니다.
AIAgentLLM코딩에이전트SWEMetaHarvard논문리뷰AI / DeepFakeDetection
DeepShield: Fortifying Deepfake Video Detection6분ICCV 2025에 발표된 DeepShield 논문 리뷰. 로컬 민감도(LPG)와 글로벌 일반화(GFD)를 동시에 해결하는 딥페이크 탐지 프레임워크를 PyTorch 구현 코드와 함께 정리합니다.
AI딥페이크논문리뷰ICCVCLIPViTPyTorch컴퓨터비전보안AI / DeepFakeDetection
Seeing Through Deepfakes: A Human-Inspired Framework for Multi-Face Detection6분ICCV 2025 딥페이크 탐지 논문 리뷰. 인간의 4가지 인지 단서를 AI에 적용한 HICOM 프레임워크를 소개하고, 다중 얼굴 시나리오에서의 탐지 방법을 Python 코드와 함께 정리합니다.
AI딥페이크논문리뷰ICCV컴퓨터비전멀티페이스보안PythonAI / DeepFakeDetection
Defending Deepfake4분딥페이크 방어 최신 논문 2가지(GuardDoor, Texture Feature Perturbation)를 요약하고, 핵심 아이디어를 Python 코드로 시연해봅니다.
AI딥페이크논문리뷰보안컴퓨터비전GuardDoor텍스처섭동PythonAI / LLM
LLM도 '브레인 롯(Brain Rot)'에 걸릴 수 있을까?3분저품질 웹 텍스트(정크 데이터)에 지속적으로 노출된 LLM의 인지 능력이 저하된다는 'LLM 브레인 롯 가설' 논문을 리뷰합니다. 추론 능력 저하, 안전성 문제, 성격 변화까지 충격적인 실험 결과를 정리합니다.
AILLM논문리뷰브레인롯데이터품질AI안전성사전학습AI / DeepFakeDetection
Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights3분오디오-비주얼 딥페이크 탐지에 관한 포괄적인 서베이 논문 리뷰. 딥페이크 유형, 탐지 방법, 주요 데이터셋, 인간 지각 연구, 현재 과제까지 총정리합니다.
AI딥페이크논문리뷰멀티모달보안딥러닝컴퓨터비전AI / Inference
Efficient Memory Management for Large Language Model Serving with PagedAttention4분vLLM의 핵심 알고리즘 PagedAttention 논문 리뷰. KV cache를 OS의 가상 메모리처럼 관리해 기존 시스템 대비 2~4× 처리량 향상을 달성한 방법을 정리합니다.
AILLM논문리뷰vLLMPagedAttentionKV cache메모리관리서빙AI / LLM
Reasoning Models Don't Always Say What They Think4분추론 모델의 CoT가 실제 내부 추론을 충실히 반영하지 않을 수 있다는 Anthropic의 연구를 살펴봅니다.
AILLM논문리뷰CoTAI안전성추론모델AI / LLM
Chain-of-Tools: Utilizing Massive Unseen Tools in the CoT Reasoning of Frozen Language Models4분동결된 언어 모델이 학습 데이터에 없던 미사용 도구까지 CoT 추론 과정에서 활용할 수 있도록 하는 Chain-of-Tools 방법론을 소개합니다.
AILLM논문리뷰CoTTool LearningCoToolsAI / LLM
Overtrained Language Models Are Harder to Fine-Tune (과잉 훈련 재앙)3분사전 학습을 과도하게 진행하면 오히려 미세조정 성능이 저하된다는 '재앙적 과훈련' 현상을 다룬 논문을 살펴봅니다.
AILLM논문리뷰Fine-Tuning사전학습AI / LLM
EXAONE-Deep : 국내 최초 Notable AI Models 등재 추론 모델3분LG AI 연구원이 공개한 오픈소스 추론 모델 EXAONE-Deep의 학습 방식과 사용법을 살펴봅니다.
AILLMEXAONE추론모델오픈소스논문리뷰AI / LLM
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context3분고정된 문맥 길이 한계를 극복하고 장기 의존성 학습의 새로운 가능성을 연 Transformer-XL 논문을 살펴봅니다.
AITransformer논문리뷰LLMAI / LLM
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale4분텍스트 중심이었던 Transformer를 이미지 인식에 직접 적용한 Vision Transformer(ViT) 논문을 살펴봅니다.
AITransformerViT논문리뷰ComputerVisionAI / LLM
Improving Language Understanding by Generative Pre-Training : GPT의 시작4분현재 GPT 시대의 출발점이 된 GPT-1 논문을 살펴봅니다.
AIGPT논문리뷰LLMAI / LLM
DeepSeek R1 : 강화학습으로 세상을 뒤흔든 모델2분강화학습 기반 Post-Training으로 주목받은 DeepSeek R1의 학습 방식과 성능을 살펴봅니다.
AIDeepSeekLLM강화학습논문리뷰AI / LLM
Titans: Learning to Memorize at Test Time5분트랜스포머에 신경 기억 레이어를 추가하여 장단기 기억을 모두 효율적으로 처리하는 Google의 Titans 아키텍처를 살펴봅니다.
AITitansLLM논문리뷰MemoryAI / LLM
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding4분양방향 트랜스포머 기반의 언어 모델 BERT를 소개한 논문을 살펴봅니다.
AITransformer논문리뷰LLMBERTAI / LLM
Attention Is All You Need : AI 혁명의 시작4분현 시대 생성형 AI의 모태가 되는 Transformer 아키텍처를 제안한 논문을 살펴봅니다.
AITransformer논문리뷰LLM