Toward Artificial General Intelligence (AGI) in 2026.
A curated archive of breakthroughs in Agents, Architecture, Training, RAG, and On-Device AI.
- [2026-03-20] Modern Model Architectures Overview ๊ฐ์ฐ ์๋ฃ (PDF)๋ฅผ ์ ๋ฐ์ดํธํ์ต๋๋ค.
- [2026-03-15] Introduction to Post-Training & Beyond ๊ฐ์ฐ ์๋ฃ (PDF)๋ฅผ ์ ๋ฐ์ดํธํ์ต๋๋ค.
2026๋ , ์ธ๊ณต์ง๋ฅ์ ๋ฐ์ ์๋๊ฐ ์ ๋ก์์ ์ง๊ฒฝ์ ๋๋ค.
์ด ์ ์ฅ์๋ AGI(Artificial General Intelligence) ๋ก ํฅํ๋ ์ฌ์ ์์ ์ค์ํ ๋ ผ๋ฌธ๋ค์ ๋ฆฌ๋ทฐํ๊ณ ์์นด์ด๋นํ๋ ๊ณต๊ฐ์ ๋๋ค.
์ฃผ๋ก ์ LinkedIn ์์ ๋ค๋ฃฌ ๋ ผ๋ฌธ๋ค์ ๋ํ ์ฌ๋ ์๋ ๋ฆฌ๋ทฐ๊ฐ ์ ๋ก๋๋๋ฉฐ, ๋๋ก๋ ์์ ๋ฏธ๋์ด์ ๊ณต์ ํ๊ธฐ ์ ์ Pre-release ์ธ์ฌ์ดํธ๋ ๋ ๊ฒ์ ์๊ฐ๋ค์ด ์ด๊ณณ์ ๋จผ์ ๊ธฐ๋ก๋ ์์ ์ ๋๋ค.
์์ฑ ์ค์ธ ์๋ก์ด ๊ธ๋ค์ ์๋ ๋งํฌ์์ ํ์ธํ์ค ์ ์์ต๋๋ค.
๊ณผ๊ฑฐ์ ์ ๋ฆฌํ๋ ๋ ผ๋ฌธ ๋ฆฌ์คํธ๋ ์๋ ๋งํฌ์์ ํ์ธํ์ค ์ ์์ต๋๋ค.
์ด ์ ์ฅ์๋ AGI๋ฅผ ํฅํ ์ฌ์ ์ ๋ค์ 8๊ฐ์ง ํต์ฌ ์ฃผ์ ๋ก ๋ถ๋ฅํ์ฌ ์ ๋ฆฌํฉ๋๋ค.
- ๐ค Agents : ์์จ ์์ด์ ํธ, ํ๋/๊ณํ(Planning) ๋ชจ๋ธ, ํ๋ ์์ํฌ
- ๐ง Architecture : LLM ์ํคํ ์ฒ ํ์ (Transformer, Mamba, MoE)
- ๐ Pre-Training : ํ์ต ๋ฐ์ดํฐ, ์ค์ผ์ผ๋ง ๋ฒ์น, ํ์ด๋ฐ์ด์ ๋ชจ๋ธ
- ๐ฏ Post-Training : RLHF, DPO, GRPO, ์ ๋ ฌ(Alignment)
- โ๏ธ Evaluation : ๋ฒค์น๋งํฌ, ํ๊ฐ ๋ฐฉ๋ฒ๋ก , ๋นํ
- ๐๏ธ RAG & Knowledge : ๊ฒ์ ์ฆ๊ฐ ์์ฑ, ์ง์ ๊ทธ๋ํ, ๋ฉ๋ชจ๋ฆฌ
- ๐ป On-Device AI : ๋ก์ปฌ ๊ตฌ๋, ์ฃ์ง ์ปดํจํ , ์ต์ ํ
- ๐ Projects : ์ง์ ๊ตฌํํ ํ๋ก์ ํธ ๋ฐ ์คํ ๊ฒฐ๊ณผ
- ๐ฅ Trends & Industry : AI ์ฐ์ ์ ๋ํฅ, ์ธ์ฌ์ดํธ, ์ฃผ์ ๋ด์ค
- ๐ Recommended Resources : ๊ณต๋ถ๋ฅผ ์ํ ์ถ์ฒ ์๋ฃ
- ํ๋ค์ค(Harness)์ ๋ฏผ๋ฏ๊ณผ ๊ทธ ํ๊ณ
Meta-Harness, NLAH, ARC-AGI-3 ๋ฑ ํ๋ค์ค์ ํจ๊ณผ์ ๋ณธ์ง์ ํ๊ณ๋ฅผ ํํค์น 3ํธ์ ๋ ผ๋ฌธ ๋ฆฌ๋ทฐ. - HYPERAGENTS: ์ค์ค๋ก '๊ณต๋ถ๋ฒ'์ ์ฝ๋ฉํ๋ฉฐ ์งํํ๋ AI
LLM์ด ์ค์ค๋ก ํ์ด์ฌ ์ฝ๋๋ฅผ ์ง๋ฉด์ ํ์ต ๋ฐฉ๋ฒ์ ์งํ์ํค๋ ๊ฐ๋ฐฉํ ์ง๋ฅ ์ฐ๊ตฌ. - 32B๊ฐ 480B ๋ชจ๋ธ์ ์ด๊ธฐ๋ ๋ฐ์ดํฐ ์์ง๋์ด๋ง
NVIDIA์ ํฐ๋ฏธ๋ ์์ด์ ํธ ํ๋ จ์ ๋น๋ฐ๊ณผ ๋ฐ์ดํฐ ์ฌํ์ฉ. - ์๋๋ฐ์ค๋ฅผ ํ์ถํด ์ฝ์ธ์ ์ฑ๊ตดํ ํต์ ๋ถ๊ฐ๋ฅํ ์์ด์ ํธ
์๋ฆฌ๋ฐ๋ฐ ์ฐ๊ตฌ์ง์ ALE ๋ ผ๋ฌธ๊ณผ ์์ด์ ํธ ํ๋ จ์ ๋ฏธํ. - Prompt Repetition Improves Non-Reasoning LLMs
70์ 0ํจ 47์น, ๊ฐ์ ํ๋กฌํํธ๋ฅผ ๋ฐ๋ณตํ๋ฉด ์ฑ๋ฅ์ด ์ฌ๋ผ๊ฐ๋๋ค! - Adaptation of Agentic AI
๊ฑฐ๋ ๋ชจ๋ธ ํ๋๋ณด๋ค ๋๊ตฌ ํ๋์ด ํจ์จ์ ์ธ ์ด์ (T2 > A2). - Memory in the Age of AI Agents
์์ด์ ํธ ๊ธฐ์ต์ ํํ, ๊ธฐ๋ฅ, ์ญ๋์ฑ์ ๋ํ ๊ณ ์ฐฐ. - World Models Research
World Knowledge Injection vs Specific Tasks. - Mixture-of-Models
Unifying Heterogeneous Agents via N-Way Self-Evaluating Deliberation. - AIRS-Bench
Frontier AI Research Science Agents๋ฅผ ์ํ ํ์คํฌ. - OctoTools
Training-free LLM Agent Framework. - Chain-of-Draft(CoD)
CoT์ ์ฅ์ ์ ์ ์งํ๋ฉด์ ํ ํฐ ์ฌ์ฉ๋๊ณผ ๊ณ์ฐ ๋น์ฉ์ ์ค์ด๋ ํ๊ธฐ์ ์ธ ์ ๊ทผ๋ฒ. - Scaling Agent Systems: ๋ค๋ค์ต์ ์ ํจ์
๊ตฌ๊ธ๊ณผ MIT๊ฐ ๋ฐํ๋ธ ๋ฉํฐ ์์ด์ ํธ์ ๊ณผํ. - LOTaD: Optimal Task Decomposition
์์ด์ ํธ๋ ์ด๋ป๊ฒ ์ผ์ ๋๋ ์ผ ํ ๊น? - ADGR: Agentic Deep Graph Reasoning
์ค์ค๋ก ์ง๋๋ฅผ ๊ทธ๋ฆฌ๋ ์์ด์ ํธ. - Agentic Reasoning
์๊ฐ์ ๋๊ตฌ๋ฅผ ์ฐ๋ ์์ด์ ํธ. - MetaChain
Zero-code Framework: ๋ง๋ง ํ๋ฉด ๋ง๋ค์ด์ง๋ ์์ด์ ํธ. - LoRASA: Agent Adaption
๋ฐ๋ก ๋ ๊ฐ์ด, ์์ด์ ํธ์ ๊ฐ์ธ๊ธฐ. - AgentArcEval
์์ด์ ํธ ์ํคํ ์ฒ, ์ ์ ๋งค๊ฒจ๋๋ฆฝ๋๋ค. - SciAgents
AI ๊ณผํ์์ ํ์. - Agent Workflows (Anthropic)
์คํธ๋กํฝ์ด ์ ์ํ๋ 5๊ฐ์ง ํต์ฌ ํจํด. - ASA: Training-Free Tool Calling
๊ฒ์ผ๋ฅธ ์์ด์ ํธ(Lazy Agent)๋ฅผ ๊นจ์ฐ๋ ๊ฐ์ฅ ๊ฐ๋ฒผ์ด ๋ฐฉ๋ฒ. - HUMANLM: State Alignment for User Simulation
์ง์ ํ ํ๋ฅด์๋๋ '๋ง์'์์ ๋์จ๋ค. - SKILLRL: ์์ด์ ํธ๋ '์คํจ'๋ฅผ ๋จน๊ณ ์๋๋ค
์์ด์ ํธ์๊ฒ ๊ฒฝํ์ '์คํฌ'๋ก ์ฆ๋ฅ(Distill)ํ์ฌ ํ์ ํ์ต์ ๊ธธ์ ์ด์ด์ฃผ๋ค. - The Devil Behind Moltbook: ๋ค์ค ์์ด์ ํธ ์ฌํ์ ํ๋ฝ
๋ซํ ๊ณ(Closed System)์์ ์์ด์ ํธ๋ค์ ์ํต ๋ถ๊ดด, ํฉ์๋ ํ๊ฐ, ๊ณต๋ชจ ๊ณต๊ฒฉ์ ์ฆ๋ช ํ ์ฐ๊ตฌ.
-
ํจ๋ฌ๋ค์ ์ ํ: VLM ๊ธฐ๋ฐ ๋ฌธ์ OCR์ ํ๊ณ๋ฅผ ๋๋ MinerU-Diffusion
ํ ์คํธ ๋์ฝ๋์ ํ์ฐ(Diffusion) ๋ชจ๋ธ์ ๋์ ํด ์ ์ฒด ํ์ด์ง๋ฅผ ๋ณ๋ ฌ ํด๋ ํ๋ ๋ฌธ์ OCR. -
Modern Model Architectures Overview ๊ฐ์ฐ ์จ๋ผ์ธ ์งํ ์๋ด
๋ค์ํ ๋ชจ๋ธ ์ํคํ ์ฒ ์๊ฐ ๋ฐ ์จ๋ผ์ธ ๋ฌด๋ฃ ๊ฐ์ฐ ์งํ ์ผ์ ์๋ด. -
์์ค ์๋ Transformer to xLSTM ์ฆ๋ฅ๋ฒ
๋ฌด๊ฑฐ์ด ์ดํ ์ ๋ชจ๋์ ๋์ด๋ด๊ณ ํ์ด๋ธ๋ฆฌ๋ ๋ชจ๋(xLSTM+SWA)๋ก ์ด์ํ์ฌ ๋ฉ๋ชจ๋ฆฌ์ ์๋๋ฅผ ํ์ ์ ์ผ๋ก ๊ฐ์ ํ ์ฆ๋ฅ(Distillation) ์์ ๋ฒ. -
Jacobi Forcing: ํ๋๋ง์ผ๋ก ์ถ๋ก ์๋๋ฅผ 4๋ฐฐ ๋์ด์ฌ๋ฆฌ๋ ๋ฐฉ๋ฒ
๊ธฐ์กด LLM ์ํคํ ์ฒ ๋ณ๊ฒฝ ์์ด, ๊ฐ๋ฒผ์ด ํ๋๋ง์ผ๋ก ์ถ๋ก ์๋๋ฅผ 4๋ฐฐ ํฅ์ (KV ์บ์ 100% ๋ณด์กด) -
Attention Residuals: ๋ฅ๋ฌ๋ ๋ ์ด์ด ์ฌ์ด์ ์ ๋ณด ํ๋ฆ ์ฌ์ค๊ณ
Kimi (Moonshot AI): RNN์์ Attention, ResNet์์ AttnRes -
Nemotron 3 Super์ NVFP4์ ๋ง๋ฒ
NVIDIA์ ๊ธฐ์ ์ฉ ์์ด์ ํธ ๋๋ชจํด๋ก(Nemoclo)์ ๋ธ๋์ฐ ํ๋์จ์ด ์ฅ๋ฒฝ. -
์ต๊ณ ์ฑ๋ฅ์ 4.44๋ฐฐ ๋น ๋ฅธ ASR ๋ถ์ผ์ dLLM
ํ์ฐ ๋ชจ๋ธ(Diffusion Model)์ ์์ฑ ์ธ์์ ๋์ ํด ๋ณ๋ ฌ ์ฒ๋ฆฌ์ ์ถ๋ก ๊ฐ์ ๋ฌ์ฑ. -
STATIC: 1,000๋ฐฐ ๋น ๋ฅธ LLM ์ถ์ฒ์์คํ
๊ตฌ๊ธ ๋ฅ๋ง์ธ๋๊ฐ ํธ๋ฆฌ ๊ตฌ์กฐ๋ฅผ ํฌ์ ํ๋ ฌ๋ก ํผ์ณ LLM ์ ์ฝ ๋์ฝ๋ฉ์ 1,033๋ฐฐ ๊ฐ์ํ ๋ฐฉ๋ฒ. -
Text-to-LoRA & Doc-to-LoRA: ์ฆ๊ฐ์ ๋ชจ๋ธ ์ ๋ฐ์ดํธ
Sakana AI: ๋ฌธ์ ๋ด์ฌํ์ 0.5์ด, ์๋ก์ด ์คํฌ ์ฅ์ฐฉ์ 1์ด ๋ฏธ๋ง. -
LLaDA2.0: Scaling Up Diffusion Language Models to 100B
100B Diffusion ๋ชจ๋ธ์ ๋ฑ์ฅ: ๊ธฐ์กด AR ๋ชจ๋ธ์ ๊ฐ์กฐํ์ฌ ํจ์จ์ฑ์ 2๋ฐฐ ๋์ธ ๋น๊ฒฐ. -
TEON vs Muon: ์ตํฐ๋ง์ด์ ์ ์
AdamW์ ์๋๋ ๊ฐ๋๊ฐ? ๋ ์ด์ด(Layer)๋ฅผ ๋์ด ํ ์(Tensor) ์ฐจ์์ ์ต์ ํ๋ก. -
EinFields: ์์ธ์ํ์ธ์ ์ํ ์ ๊ฒฝ๋ง
์ฐ์ฃผ์ ์๊ณต๊ฐ(Spacetime)์ ์ ๊ฒฝ๋ง์ ๊ฐ์ค์น ์์ ์์ถํ๋ค. -
Micro GPT: LLM์ ๋ฐ๋ฅ์ ๋ณด๋ค
Andrej Karpathy์ ์ ๋ฌผ. ์ค์ง ํ๋ ฌ ๊ณฑ์ ๊ณผ ๋ฏธ๋ถ์ด ์์ ๋ฟ. -
QED-Nano: ๋ค์์ด ๊ณจ๋ฆฌ์์ ์ด๊ธฐ๋ ๋ฒ
์ํ ์ฆ๋ช ์์ 4B ๋ชจ๋ธ์ด 100B ๋ชจ๋ธ์ ์๋ํ ๋น๊ฒฐ. -
Moonshine: ๋ฌ๋น์ฒ๋ผ ๊ฐ๋ฒผ์ด ์์ฑ ์ธ์
OpenAI Whisper์ ๋ํญ๋ง? ์ฃ์ง(Edge) ๋๋ฐ์ด์ค๋ฅผ ์ํ ๊ตฌ์ธ์ฃผ. -
Nested Learning
๋ฅ๋ฌ๋์ '๊น์ด'๊ฐ ์๋๋ผ '์ค์ฒฉ'์ด๋ค. -
Diffusion LLM (100B Parameters)
30B ๋ชจ๋ธ๋ณด๋ค 2๋ฐฐ ๋น ๋ฅธ ๋ณ๋ ฌ ์์ฑ ๋ชจ๋ธ์ ๋ฑ์ฅ. -
RNN is all you need
Transformer์ ์๋๋ฅผ ์ก์ ๋ณ๋ ฌ ํ์ต RNN (minLSTM, minGRU)์ ๋ถํ. -
Titans: Learning to Memorize at Test Time
Transformer์ ๊ธฐ์ต๋ ฅ์ ๋์ด์๋ ์๋ก์ด ๋ฉ๋ชจ๋ฆฌ ์ค์ฌ ์ํคํ ์ฒ. -
LLM์ "์ ๋ ฅ ๊ธธ์ด ์ ๊ณฑ(N^2)"์ ์ ์ฃผ
๋๊ฐ ๋จผ์ ๋์ด๋ผ ๊ฒ์ธ๊ฐ? -
Mistral Large 3: ํจ์จ์ฑ์ ๊ทน๋ํ
Mistral Large 3 vs Kimi K2: Efficiency vs Scale. -
ํ์ค์ด ๋ V3 ์ํคํ ์ฒ
Mistral Large 3, Kimi K2 ๊ทธ๋ฆฌ๊ณ DeepSeek V3.2 ๋ถ์. -
Ai2 Olmo 3
์ฑ๋ฅ๋ณด๋ค๋ ๊ณผ์ ์ ํฌ๋ช ์ฑ์ ์ง์คํ LLM ์ฐ๊ตฌ์ ๊ต๊ณผ์. -
Nemotron-3-Nano-30B-A3B
Qwen3๋ณด๋ค ๋น ๋ฅด๊ณ ๊ฐ๋ ฅํ Mamba-2 ํ์ด๋ธ๋ฆฌ๋ ๋ชจ๋ธ. -
DeepSeek Engram
๊ธฐ์ต์ ํจ์จํํ์ฌ ์ฐ์ฐ ๋ญ๋น๋ฅผ ์ค์ด๋ ์๋ก์ด ํฌ์์ฑ ์ถ. -
2026๋ ์ ํต๋ ํ๊ดด: 90M, 600M ๋ชจ๋ธ
์ด์ํ ๋ชจ๋ธ๋ค์ ๋๋ผ์ด ์ง์ ์ดํ ๋ฅ๋ ฅ. -
Sakana AI: DroPE
์์น ์ ๋ณด(Positional Embeddings)๋ ํ์ตํ ๋๋ง ์ฐ๊ณ ์ค์ ์์๋ ๋ฒ๋ ค๋ผ. -
Sakana AI RePo
์์น ์ ๋ณด๋ฅผ ์ฌ์ค๊ณ(Re-position)ํ๋ผ. -
DeepSeek vs Qwen (A3B MoE)
์ ๋ฐ๋์ ์ค๊ณ ์ฒ ํ ๋ถ์. -
Generative Modeling via Drifting
ํ์ฐ ๋ชจ๋ธ์ 250๋จ๊ณ๋ฅผ ๋จ 1๋จ๊ณ(1-step)๋ก ์ค์ฌ ์๋์ ํ์ง์ ๋์์ ์ก์ ํ์ . -
Beyond Transformers 2
๋ฉ์น ๊ฒฝ์์ ๋์ด ์๊ฐ๊ณผ ๋ณธ์ง๋ก. -
DeepSeek-V3 vs V3.2: ์ํคํ ์ฒ์ ์งํ
์ํคํ ์ฒ์ ์งํ์ ๊ธฐ์ ์ ๋ชฉํ์ . -
Gemma 3 ๋ชจ๋ธ์ ํต์ฌ ๋ชฉํ ๋ฐ ํน์ง
๊ตฌ๊ธ ๋ฅ๋ง์ธ๋์ ์ต์ ๋ฉํฐ๋ชจ๋ฌ ๋ชจ๋ธ ๋ถ์. -
Python ์ฌ๊ท๋ก ์์ํ๋ 1,000๋ง ํ ํฐ ์๋
Recursive Language Models: Python ์ฌ๊ท๋ก 1,000๋ง ํ ํฐ ์ฒ๋ฆฌํ๊ธฐ.
-
LLM ํ์ต ํจ์จํ ๋ฐฉ์: ์ธ๊ฐ์ ์ธ์ด ์ต๋ ๋ฐฉ์
์ธ๊ฐ์ ์ธ์ด ์ต๋ ๋ฐฉ์์ ๋ชจ๋ฐฉํ ์ ์ง์ ์ดํ ํ์ต๋ฒ(Vocabulary Curriculum Learning). -
RoPE๊ฐ ์ ๋ณด๋ฅผ ์ ์คํ๊ณ ์๋ค?
ํธ๋จ๋ ์ฐ๊ตฌ์ง์ ์ถฉ๊ฒฉ์ ์ธ ๋ฐ๊ฒฌ๊ณผ ํด๊ฒฐ์ฑ . -
CALM: Continuous Autoregressive Language Models
ํ ๊ธ์์ฉ ํ์ดํํ๋ LLM์ ๋์ด, 4๊ฐ์ฉ ์์ฑํ๋ ์ฐ์ ๋ฒกํฐ ์์ธก.
- Introduction to Post-Training & Beyond ๊ฐ์ฐ ํ๊ธฐ ๋ฐ ํฅํ ๊ณํ
Maxime Labonne์ ๊ฐ์ฐ ์๋ฃ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ์จ๋ผ์ธ ๊ฐ์ฐ ์ฑ๊ณต ์ฌ๋ก์ ํฅํ ๋์ค์ฝ๋ ์คํฐ๋ ๊ณํ. - ๊ทธ OpenClaw๋ก ๊ฐํํ์ต์? ํ๋ฆฐ์คํด ๋ํ๊ต์ OpenClaw-RL
ํ๋ฆฐ์คํด ๋ํ๊ต ์ฐ๊ตฌ์ง์ด ์ ์ํ OpenClaw-RL ํ๋ ์์ํฌ์ ์ค์๊ฐ ๊ฐํํ์ต์ ํ๊ณ. - ๊ฐํํ์ต ๊ณผ์ ์ ๋จ 13๊ฐ์ ํ๋ผ๋ฏธํฐ๋ฉด ์ถฉ๋ถํฉ๋๋ค.
Qwen2.5-7B-Instruct์ GRPO๋ฅผ ์ ์ฉํ์ฌ GSM8K ์ํ ๋ฒค์น๋งํฌ ์ ๋ต๋ฅ 91% ๋ฌ์ฑ. - Parameter-Efficient Fine-Tuning for Foundation Models
๊ฑฐ๋ ๋ชจ๋ธ์ ํจ์จ์ ์ผ๋ก ํ๋ํ๋ 5๊ฐ์ง ํต์ฌ ๊ธฐ๋ฒ(PEFT) ์ด์ ๋ฆฌ. - When Reasoning Meets its Laws
๋จ 3,900๊ฐ์ ๋ฐ์ดํฐ๋ก AI์๊ฒ '์ถ๋ก ์ ๋ฌผ๋ฆฌ ๋ฒ์น'์ ๊ฐ๋ฅด์น๋ ๋ฒ (LORE). - LIE: ๊น๊ฒ ์๊ฐํ ์๋ก ๋ ๋๋ํด์ง๋ค
LLM์๊ฒ '์๊ฐ์ ๋ฉ์ถ์ง ์๋ ๋ฒ'์ ๊ฐ๋ฅด์น๋ ๊ฐํํ์ต ์ ๋ต. - ProRL: Prolonged Reinforcement Learning
๊ฐํํ์ต, ์งง๊ฒ ํ์ง ๋ง๊ณ ๊ธธ๊ฒ ํ๋ผ. RL ์ค์ผ์ผ๋ง ๋ฒ์น์ ๋ฐ๊ฒฌ. - DuPO: Self-Verification via Dual Preference Optimization
์ ๋ต์ง ์๋ ๋ฒ์ญ์ ์ค์ค๋ก ๊ฒ์ฆํ๋ '์ผ๋ฐํ๋ ์๋์ฑ' ๊ธฐ๋ฒ. - From Code Foundation Models to Agents
Code Foundation Model์์ ์์จ ์ฝ๋ฉ ์์ด์ ํธ๋ก์ ์งํ ์ฒญ์ฌ์ง. - Emergent Misalignment
์ทจ์ฝํ ์ฝ๋๋ฅผ ๋ฐฐ์ด AI์ ์ํํ ์ผํ. - Stabilizing RL with LLMs
ํ๋ คํ ๊ธฐ๊ต๋ณด๋ค ์ํ์ ๊ธฐ๋ณธ๊ธฐ๊ฐ ์ค์ํ ์ด์ . - Yann LeCun: World Model์ ์ค์์ฑ
LLM์ ๋ฌผ๋ฆฌ ์ธ๊ณ๋ฅผ ๋ฐฐ์ธ ์ ์๋ค? - GDPO: Multi-reward RL
GRPO์ ์ฝ์ ์ ๊ทน๋ณตํ ์๋ก์ด ๊ฐํํ์ต ๊ธฐ๋ฒ. - Detailed balance in LLM-driven agents
LLM์ด ๋ฌผ๋ฆฌํ์ '์ต์ ์์ฉ์ ์๋ฆฌ'๋ฅผ ๋ฐ๋ฅธ๋ค๋ ๊ฒ์ ์ฆ๋ช ํ ์ฐ๊ตฌ. - iGRPO
Self-Feedback-Driven LLM Reasoning: ๋ชจ๋ธ์ด ์ค์ค๋ก ๋ง๋ ์ด์์ ๋ณด๊ณ ๋ฐฐ์ฐ๋ ์๊ฐ ๊ฐ์ ๊ฐํํ์ต.
- Preference Leakage: A Contamination Problem in LLM-as-a-Judge
LLM ํ๊ฐ์๊ฐ ์์ ์ ํจ๋ฐ๋ฆฌ ๋ชจ๋ธ์ ํธ์ ํ๋ '์ ํธ๋ ์ ์ถ' ๋ฌธ์ . - ADR-Bench ์ ๋ฌธ๊ฐ ํ๊ฐ
DeepSeek-v3.2๋ฅผ ์๋ํ ํจ์จ์ ์ธ ์์ด์ ํธ ๋ชจ๋ธ.
- 1์ต ํ ํฐ์ ์ฅ๋ฒฝ์ ๊นจ๋ค: RAG์ ํ๊ณ๋ฅผ ๊ทน๋ณตํ MSA
RAG๋ฅผ ๋ฒ๋ฆฌ๊ณ ๋ชจ๋ธ ๋ด๋ถ์ 1์ต ํ ํฐ์ ๋ด์๋ด๋ Memory Sparse Attention ๊ธฐ์ . - ๋ ์ธ๊ณ ๋น ๋ฅธ ์คํ์์ค ๋ชจ๋ธ๋ก Claude 4.6 Opus ์ก๊ธฐ
๊ฐ๋ฒผ์ด ๋ชจ๋ธ์๊ฒ ๊ฒ์ํ๋ ๋ฐฉ๋ฒ์ ๊ฐ๋ฅด์น๋ KARL. - LIMRANK: Less is More
2๋ง ๊ฐ ๋ฐ์ดํฐ๋ก SOTA ๋ฆฌ๋ญ์ปค ๋ง๋ค๊ธฐ. - HippoRAG 2
์ธ๊ฐ์ ๊ธฐ์ต ๋ฉ์ปค๋์ฆ์ ๋ชจ๋ฐฉํ ๋น๋ชจ์์ ์ฐ์ ํ์ต (Bio-inspired Continual Learning). - vLLM์ ์น๋ฆฌ: ์๋์ ์ธ ์๋
ํ์ค์ด ๋๊ธฐ๊น์ง. - RAG & Agent Memory 4์
GraphSearch, S-RAG, xMemory ๋ฑ ์ต์ ๋ ผ๋ฌธ ์๊ฐ. - Beyond Naive RAG
4 Papers that Redefine Agent Memory. - SEPAL: Scalable Feature Learning
9์ฒ๋ง ๊ฐ ์ง์ ๊ทธ๋ํ, V100 ํ ์ฅ์ผ๋ก ํ์ตํ๊ธฐ. - GraphRAG Survey
RAG์ ๋ฏธ๋๋ ๊ทธ๋ํ๋ค (ACM TOIS). - A-MEM: Agentic Memory
์์ด์ ํธ๋ฅผ ์ํ ์ด์์๋ ๊ธฐ์ต. - PISCO: Compression for RAG
RAG๋ฅผ ์ํ ์ด๊ณ ํจ์จ ์์ถ. - SymAgent: Symbolic Knowledge Graph
๊ธฐํธ ์ถ๋ก ์ผ๋ก ์์ฑํ๋ ์ง์ ๊ทธ๋ํ. - VideoRAG
์์์ ์ฝ๋ RAG.
- flash-moe: 48GB ๋งฅ๋ถ์์ Qwen3.5-397B-A17B ๋๋ฆฌ๊ธฐ
C์ธ์ด์ OS ์์ ๊ธฐ๋ฅ์ผ๋ก SSD ๋ณ๋ชฉ์ ๋ซ์ด๋ธ Mac ์ ์ฉ ์ถ๋ก ์์ง. - Liquid AI 1.2B vs Google 4B
Pau Labarta Bajo's Local AI Insight. - ๊ตญ๊ฐ๋ํ AI ํ๋ฝ ๊ทธ ํ (On-Device Focus)
ํ์ค์ ์ธ ์ง๋จ๊ณผ ์ค๊ตญ ๋ชจ๋ธ๊ณผ์ ๋น๊ต. - ๋ก์ปฌ LLM ๊ตฌ๋์ 6๊ฐ์ง ํ์ค์ ๋ฐฉ๋ฒ
STEM: ๋จ์ํ ์ง์์ ๊บผ๋ด๊ธฐ ์ํด ๋น์ผ GPU๋ฅผ ์ฐ์ง ๋ง์. - LLM ์ง๋ฅ์ ๋ฏผ๋ฏ๊ณผ ํ๊ณ
๋ฒค์น๋งํฌ๋ ์์์ด์ง๋ง ํ์ฅ(์ง๋ฃ)์์๋ ๋์ ์ธ ์ด์ ์ ํด๊ฒฐ์ฑ .
- Gemini-Claw ๊ฐ๋ฐ๊ธฐ
2์๊ฐ ๋ง์ ๋ง๋ , ์ค์ค๋ก ์ฝ๋๋ฅผ ์ง๊ณ ๋ด์ค๋ฅผ ๋ถ์ํ๋ ์์ด์ ํธ. - ์ค์ค๋ก ์นํ์ด์ง๋ฅผ ๋ง๋ค๊ณ ๊ฒ์ฆํ๋ AI
Gemini-Claw: ์ค์ค๋ก ์นํ์ด์ง๋ฅผ ๋ง๋ค๊ณ , ์คํํ๊ณ , ๊ฒ์ฆ๊น์ง ํ๋ ์์ด์ ํธ. - Insight Agents
An LLM-Based Multi-Agent System for Data Insights. - SEAL: ์ค์ค๋ก Fine-tuningํ๋ ์์ด์ ํธ
๊ฐ๋ฅ์ฑ๊ณผ ํ๊ณ.
- Claube Vibe Coding
๋ณต์กํ ๋ฐฑ์๋๋ AI์๊ฒ ๋งก๊ธฐ๊ณ ๊ณต์์์ ๋ฌ๋ํ๊ธฐ. - ๋ฌดํ ๋ฃจํ ๋ฐ์ด๋ธ ์ฝ๋ฉ
"ํ ์คํธ ์ฑ๊ณตํ ๋๊น์ง ๊ณ์ํด" ํ๋ง๋๋ก ๊ฐ๋ฐ ๋๋ด๊ธฐ. - Docling-Translate
CLI์ ๋ฒ๊ฑฐ๋ก์์ ํด๊ฒฐํ Streamlit ๊ธฐ๋ฐ ๋ฒ์ญ ๋๊ตฌ. - LFM-Scholar
๋ ผ๋ฌธ Related Work ์๋ ์์ฑ์ ์ํ LLM ๋๊ตฌ. - Gemini-Claw ํ์ผ ์กฐ์ ๊ธฐ๋ฅ
"ํฐ๋ฏธ๋ ์กฐ์ ๊ธฐ๋ฅ์ด๋ ๋ฃ์ด๋ณผ๊น?" - Gemini-Claw ์คํผ์ค ์์ฑ
๋ก์ปฌ ํด๋๋ฅผ ๋ถ์ํด 94์ด ๋ง์ ํ ํจํค์ง ์์ฑ. - Gemini 3 Pro + ๋ฏ์ API
๊ธฐ๋ ์ด์์ ์ฝ๋ ํ๋ฆฌํฐ์ ์ฌ๋ฏธ. - Liquid AI LFM2-2.6B-Exp ํ๋๊ธฐ
๋ ผ๋ฌธ Related Work ์น์ ์ ํต์งธ๋ก ์์ฑํ๋ ๋๊ตฌ ์ ์.
- Tiny MoA
์๊ฐ๋น $100 ํ์ฐ๋ AI vs CPU๋ก ๋๋ฆฌ๋ ๊ฐ์ฑ๋น ๋ฉํฐ ์์ด์ ํธ. - Tiny MoA Tool Calling
16GB ๋ ธํธ๋ถ์์ ๊ตฌํํ ๋ก์ปฌ ์์ด์ ํธ์ ๋๊ณผ ์. - Tiny MoA: ์ง์ ํ ์จ๋๋ฐ์ด์ค AI
Clawdbot is cool, but Tiny MoA runs on CPU. - Clawdbot vs ๋ก์ปฌ AI
API ์๋ ์ง์ ํ ์จ๋๋ฐ์ด์ค AI๋ฅผ ํฅํ์ฌ. - vLLM & SGLang in llama.cpp
CPU ์ถ๋ก ์๋ 1.8๋ฐฐ ํฅ์.
- LFM2-350M-ToolLLaMA: 14๋ฌ๋ฌ๋ก GPT-5-Nano๋ฅผ ์ด๊ธฐ๋ค
H100 ํ ๋, ํ์ต 4์๊ฐ, ์ด 14๋ฌ๋ฌ๋ก ToolBench์์ GPT-5-Nano๋ณด๋ค 6.6๋ฐฐ ์ด์ ์ข์ 350M ๋ชจ๋ธ ์ ์. - Open-Yaongi Project
52 Layers 4B(Active 0.6B) ๊ท๋ชจ์ ํจ์จ์ ์ธ sLLM ์คํ์์ค ํ๋ก์ ํธ (Mamba-2 + MoE). - HybriKo: ํ์ด๋ธ๋ฆฌ๋ RNN+Attention
Google Griffin๊ณผ Liquid AI LFM2์์ ์๊ฐ์ ๋ฐ์ ์ํคํ ์ฒ. - HybriKo-117M
A100 8์ฅ์ผ๋ก ๋ง๋ ๋ฆฌ๋ ์ค ๋ช ๋ น์ด Function Calling ๋ชจ๋ธ. - HybriKo-117M-LinuxFC
ํ๊ตญ์ด๋ฅผ ๋ฆฌ๋ ์ค ๋ช ๋ น์ด๋ก ๋ฐ๊ฟ์ฃผ๋ ์ด๊ฒฝ๋ ๋ชจ๋ธ ๊ฐ๋ฐ๊ธฐ. - 52-Layer HybriKo-430M
T4 GPU ํ๋์ ์ต์ ์ํคํ ์ฒ๋ฅผ ์ฐ๊ฒจ๋ฃ์ ์คํ์. - 1.2B ๋ชจ๋ธ๋ก PPT ๋ง๋ค๊ธฐ
์ํ ๋ชจ๋ธ์ ๊ฐ๋ฅ์ฑ. - GPT ๊ตฌ์กฐ์ ํ๊ณ๋ฅผ ๋์ด
Liquid AI, TII, NVIDIA์ ์๋ก์ด ์๋๋ค.
- Introduction to Post-Training ๊ฐ์ฐ ์จ๋ผ์ธ ์งํ ์๋ด
Maxime Labonne๋์ ์๋ฃ๋ฅผ ์ฌ๊ตฌ์ฑํ ์จ๋ผ์ธ ๋ฌด๋ฃ ๊ฐ์ฐ ์ผ์ ์๋ด ๋ฐ ๋์ค์ฝ๋ ํฌํ. - Introduction to Post-Training ๊ฐ์ฐ ์ฌ๊ตฌ์ฑ
Maxime Labonne๋์ ์๋ฃ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ 7๊ฐ์ง ์ต์ RL ๋ ผ๋ฌธ๊ณผ ๋น์ . - LFM2 1.2B ๊ธฐ๋ฐ ํ๊ตญ์ด-์์ด ๋ฒ์ญ๊ธฐ
LFM2 1.2B ๋ชจ๋ธ๋ก ๊ตฌ๊ธ๊ณผ ์๋ฆฌ๋ฐ๋ฐ์ 4B ๋ชจ๋ธ์ ์ด๊ธด ๋ฒ์ญ๊ธฐ ์ ์๊ธฐ. - LFM2 ๋ฒ์ญ๊ธฐ ๊ฐ๋ฐ๊ธฐ: ํต์ฌ ๋ฐ๊ฒฌ ๋ฐ ์ฑ๊ณผ
SFT์ RL์ ์ฑ๋ฅ ์ฐจ์ด ๋ถ์ ๋ฐ Liquid AI ๊ณต์ ์ฟก๋ถ ๋ฑ์ฌ ์์. - Small Language Model for Translation
Advice for AI engineers. - Liquid AI LFM2-1.2B ํ๋ ์คํจ๊ธฐ
ํ๊ตญ์ด-์์ด ๋ฒ์ญ RL(GRPO) ํ์ต ์คํจ์ ๊ตํ. - ํ๊ตญ์ด LLM ํ์ต ๋ฐ์ดํฐ์ ๋ถ์ฌ
Pre-training๋ถํฐ GRPO๊น์ง์ ํ๋ํ ์ฌ์ .
- 3๊ฐ์ 9๊ฐ ํ๋ก์ ํธ ํ๊ณ : GPU Poor์ ์ฌ์
RAM 16GB, i5 CPU ๋ ธํธ๋ถ์์ 9๊ฐ์ ํ๋ก์ ํธ์ 2๊ฐ์ง ์์นด์ด๋ธ๋ฅผ ๋ง๋ ๊ธฐ๋ก. - ์ต๊ทผ ๊ตฌํํ AI ํ๋ก์ ํธ ๋ฐ ์ฑ๊ณผ
Gemini-Claw๋ก ๊ตฌํํ ๋งฅํจ์ง ์คํ์ผ ๋ณด๊ณ ์ ๋ฐ PPT ์๋ ์์ฑ. - Gemini-Claw ์ฑ๋ฅ vs ๋ณด์
LLM ์์ด์ ํธ์ ์ํํ ์ ์ฌ๋ ฅ. - AI์ ๋ํ ๋๋ ค์ vs ํฅ๋ฏธ
OpenClaw, ํ๊ฐ ์ธ์ฉ, Vibe Coding ํ์์ ๋ํ ๋จ์. - Pau Labarta Bajo's Insight
๋ฉํฐ ์์ด์ ํธ ์์คํ ์ ๋ํ ์ธ์ฌ์ดํธ.
- LLM Wiki์ ๊ฐ์ ๊ฒฐ๋ก : ๊ธฐ์ ์ ์งํฅ์ ์ ์ผ์น
Karpathy์ LLM Wiki ์์ด๋์ด, ๋์ผํ ๊ฒฐ๋ก ์ ๋๋ฌํ๊ฒ ๋๋ ๊ธฐ์ ์ ์ฌ๊ณ ๊ณผ์ ๊ณผ ์คํ๋ ฅ์ ๊ดํ์ฌ. - ์ ์ API๋ก๋ง ๊ณต๊ฐ๋๋ ์๋ก์ด ์ค๊ตญ ๋ชจ๋ธ๋ค (์๋ก์ด Qwen, GLM)
AI ์ด์ง๋ฅ ๋ฌ์ฑ์ ๊ธฐ๋๊ฐ๊ณผ ์คํ์์ค ์ํ๊ณ์ ๋ถ์ํ ๋ฏธ๋. - ์ ๋ฌธ๊ฐ๋ค์ ์ธ๊ณต์ง๋ฅ ๊ฒฝ์ ์ ํ๊ธ๋ ฅ ์์ธก (Forecasting the Economic Effects of AI)
์ธ๊ณต์ง๋ฅ ๋ฐ์ ์ ๊ฒฝ์ ์ ์ํฅ๊ณผ ์ธํ๋ผ, ์ ์ ์์ฐจ์ ๋ฌธ์ . - ์์ฆ ๋๋ ์๊ฐ (Gemma 4, MoE, ์ค๊ตญ, ๊ตฌ๊ธ)
์คํ์์ค ์ํ๊ณ์ ๊ฐ๋ฅ์ฑ, ์ค๊ตญ์ ํ์ , ๊ทธ๋ฆฌ๊ณ ์ต์ข ๊ฒฝ์์ ๊ตฌ๊ธ์ ๋ํ ๋จ์. - ์ธ๊ณต์ง๋ฅ ๋ชจ๋ธ๋ง์ ์์ ํ์ ๊ทธ ๋ณธ์ง
๊ณผํ๊ณผ ์ํ์ ๋์ด, ์ฐฝ์์์ ํํ ๋ฐฉ์๊ณผ ๊ฐ์ฑ์ด ์ค์ํด์ง๋ ๊ฐํํ์ต(RL) ๋ถ์ผ์ ๋จ์. - ๊ตญ๊ฐ ๊ฒฝ์ ์๋์ ์ข
๋ง๊ณผ ์์๋ผ์ด์ด ๊ธฐ์
/์๋ณธ
๊ตญ๊ฐ ๊ฐ ๊ฒฝ์๋ณด๋ค ์๋์ ์ธ ๊ธฐ์ ๋ ฅ์ ๊ฐ์ง ์์๋ผ์ด์ด ๊ธฐ์ ๊ณผ ๊ฑฐ๋ ์๋ณธ์ด ์์ฅ์ ์ฃผ๋ํ๋ ์๋์ ๋ํ ํต์ฐฐ. - ์ด์ ๋ ํ์ต์ด ์๋๋ผ ์ถ์ถ์ ์๋์
๋๋ค
ํ์ต์ ์ต์ํํ๊ณ ๋ชจ๋ธ์ ์จ๊ฒจ์ง ์ง๋ฅ์ ํญ๋ฐ์ํค๋ 5๊ฐ์ง ์ต์ ๋ฐฉ๋ฒ๋ก ๊ณผ ํจ๋ฌ๋ค์์ ๋ณํ. - ์ธ๊ณต์ง๋ฅ์์์ ์ค์๋๋ ๋ฐ์ดํฐ 90%, ์์ด์ ํธ 9%, ๋ชจ๋ธ 1%์
๋๋ค.
๊ฑฐ๋ ๋ชจ๋ธ์ ๊ฐ๋ ค์ง ํต์ฌ ๋ณธ์ง๊ณผ ๋ฐ์ดํฐ ๊ธฐ๋ก์ ์ค์์ฑ. - ๊ฐ์์ง๋ ์ฝ๋ฉํ๋ ์๋, ์ฐ๋ฆฐ ์ ๋ ๊ณผ๋กํ๊ณ ๋ฉ์ฒญํด์ง๊น?
์๋ํ๋ ํผ๋๋ฐฑ ๋ฃจํ์ ๋ช๊ณผ ์ธ์ง์ ๊ตด๋ณต์ ์ํ์ฑ. - ํ๊ตญ์ด ๋ฐ์ดํฐ๋ฅผ ์ํ ๋ค์ง
์ธ๊ตญ์ธ๋ค์ด ํ๊ตญ์ด๋ฅผ ๋ฐฐ์ฐ๊ฒ ๋ง๋ค๊ฒ ๋ค๋ 10๋ ์ ๋ค์ง์ ์คํ. - AGI๋ผ๋ ์ํํ ์ด๋ฐ์ฌ๋ก๊ธฐ: ์์ธ๋ชจ๊ธ๋ฃจ์ ๋ฅด์ฟค์ ์ผ์นจ
๋ ธ๋ฒจ ๊ฒฝ์ ํ์ ์์์์ ์ ๋ฅด์ฟค์ด ๋์์ ๋ด๋ฆฐ ๊ฒฐ๋ก : ๋ง๋ฅ AI ํ์์์ ๊นจ์ด๋๋ผ. - ๊ท๋ชจ์ ๊ฒฝ์์ ๋์ด์ 14๊ฐ์ง ์๋
๊ตฌ์กฐ์ ํ๊ณ๋ฅผ ๋นํ๊ณ ์ฐํํ๋ ์ต์ AI ์ฐ๊ตฌ 14์ . - AI ๊ธฐ์
์ ๋ฐฉํฅ: B2B์ ์ค๋
ยท๋
ธ๋
์ธต B2C
์ธ๋ฅ์ 80%๋ AI๋ฅผ ํ ๋ฒ๋ ์ ์จ๋ดค๋ค. ์ฝ๋ฉ ์์ด์ ํธ๊ฐ ์๋ ๋๊ตฌ ํธ์ถ ๊ธฐ๋ฐ ์๋น์ค๊ฐ ๋ต. - OpenAI vs Anthropic vs Pentagon
์ธ๊ณต์ง๋ฅ์ ์ค๋ฆฌ, ๊ด๊ณ , ๊ทธ๋ฆฌ๊ณ ์คํ์์ค. - Andrej Karpathy: ์ฐ๋ฆฌ๋ ์ ๋ น์ ์ํํ๊ณ ์๋๊ฐ?
AGI์ ํจ์จ์ฑ๊ณผ ํต์ , ๊ทธ๋ฆฌ๊ณ ๋ณด์ ํดํน์ ๋ํ ๋จ์. - AI Era Cognitive Surrender
AI์ ์์กดํ๋ ๋๊ฐ๋ '์ธ์ง์ ํญ๋ณต(Cognitive Surrender)'์ ๋๋ค. - Open Claw: AI๊ฐ ๊ฐ๋ฐ์๋ฅผ ๊ณต๊ฒฉํ ๋
์คํ์์ค ๋ฉ์ธํ ์ด๋๊ฐ AI์๊ฒ ํ๋ฐ์ ๋นํ๋ค. - Vibe Coding (๋ฐ์ด๋ธ ์ฝ๋ฉ)
์ฝ๋๋ ์์ด๋ผ. ๋ฌด๋(Vibe)๋ฅผ ๊ด๋ฆฌํด๋ผ. - The Thinking Game (Demis Hassabis)
์ฒด์ค ๋ญํน 2์์ ์ฒ์ฌ ์๋ ์ ์ ๋น๊ฒํ ์น๋ถ์ ์ธ๊ณ๋ฅผ ๋ ๋ ์ธ๋ฅ๋ฅผ ๊ตฌ์ํ๋ฌ ๊ฐ๋๊ฐ? - Sebastian Raschka, PhD: "Ahead of AI"
๊ธฐ๋ณธ๊ธฐ๋ถํฐ ์ต์ ํธ๋ ๋๊น์ง. - Vibe Coding๊ณผ ์๊ตฌ์ ์ธ ์ฃผ๋์ด์ ํจ์
Karpathy๋ ํ๋ค์ดํ๋ ์๋์ ์์กด๋ฒ: ๋ฐ์ด๋ธ ์ฝ๋ฉ๊ณผ ๊ธฐ์ด์ ์ค์์ฑ. - Hugging Face CEO์ ํ๊ตญ AI ๋ชจ๋ธ ์์
SKT A.X, LG AI, Upstage ๋ฑ ํ๊ตญ ๋ชจ๋ธ์ ์ ์ฑ์๋. - Anthropic์ ์ํ๊ณ ์กฐ์ด๊ธฐ
OpenCode ์ฐจ๋จ๊ณผ Claude Code ์ฌ์ฉ๋ ์ ํ์ ์์ฌ์. - CES 2026: AMD Lisa Su์ Liquid AI
AMD๊ฐ ์ ํํ ํํธ๋. - ๊ตญ๊ฐ๋ํ AI ํ๋ก์ ํธ 1์ฐจ ๊ฒฐ๊ณผ
LG, SKT, Upstage ์ ๋ฐ๊ณผ ํ๋ฝ ๊ธฐ์ ๋ค์ ํ๋ณด. - Post-training์ ํ๊ณ
์ ๋ชจ๋ธ์ ํ์ต์ด ๋๋๋ฉด ๋ ์ด์ ๋๋ํด์ง์ง ์๋๊ฐ? - LLM ๊ฐ๋ฐ๊ณผ ์ฌ๋ด ์ ์น
์ค๋ฌด์ vs ๊ฒฝ์์ง์ ๋ฆฌ์คํฌ ๊ด๋ฆฌ ๊ด์ ์ฐจ์ด. - Solar Open์ GLM ํ์ ๋
ผ๋ ์ข
๊ฒฐ
From Scratch ๊ฐ๋ฐ์ ์น์ดํ ํ์ . - What LLMs Think When You Don't Tell Them?
์๋ฌด๋ฐ ์ง์๋ ํ์ง ์์์ ๋ LLM์ ๋ฌด์์ ์๊ฐํ๋๊ฐ? ๋ชจ๋ธ ์ฑ๊ฒฉ ์ ํ ๋ถ์. - AI ๊ฑฐํ๋ก ์ ๋ณธ์ง
์์ฅ ์ถ์๊ฐ ์๋ ์๊ธ ์์ ํ์ ์ฐ์ ์ ์ฑ์.
๊ณต๋ถํ ๋ ๋์์ด ๋ ํ๋ฅญํ ์๋ฃ๋ค์ ๊ณต์ ํฉ๋๋ค.
-
LLM course ์ ๋ฐ์ ์ธ LLM ์ง์ ๋ก๋๋งต
-
Reinforcement Learning from Human Feedback ๋ฌด๋ฃ ๊ฐํํ์ต ์ฑ
-
Build A Reasoning Model (From Scratch) LLM ์๋ ๋ฐฉ์ ์ดํด
-
Ahead of AI LLM ๋ชจ๋ธ ์ํคํ ์ฒ ์ดํด
-
Maxime Labonne Blog ๋ค์ํ ํ๋ก์ ํธ ๋ฐ ๊ธฐ์ ์ดํด
-
LLM Datasets LLM ํ์ต ๋ฐ์ดํฐ ๋ชจ์
-
LLM-KO-Datasets ํ๊ตญ์ด ํฌํจ ๋ฐ์ดํฐ
-
AGI-Papers ๋ ผ๋ฌธ ๋ฆฌ๋ทฐ ๋ฑ ๋ค์ํ ์์ ๊ณต์
-
Unsloth Dynamic 2.0 GGUFs ์ต์ ์์ํ ๋ฐฉ๋ฒ
-
TRL Docs ํ์ต ๊ฐ์ด๋
-
The Modern Software Developer ์์ด์ ํธ ๊ฐ๋ฐ๋ฒ
- ๐ง Contact: newhiwoong@gmail.com
Disclaimer: The views and opinions expressed in these reviews are those of the author and do not necessarily reflect the official policy or position of any other agency, organization, employer or company.