AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 9 페이지
- 4
-9.15pp에서 +0.61pp로: 네 번의 DPO 반복 실패를 통한 엔지니어링 여정
DPO(Direct Preference Optimization)를 이용한 코딩 모델 학습 과정에서 발생한 심각한 성능 저하(-9.15pp)와 이를 극복하기 위한 엔지니어링 여정을 다룹니다. 자동화된 데이터 검증 파이프라인의 허점을 발견하고, 단순 문법적 정확성을 넘어 데이터의 의미론적(Semantic) 무결성을 확보하는 것이 모델 성능 향상의 핵심임을 보여줍니다.
From -9.15pp to +0.61pp: An engineering journey through four DPO iteration failures↗dev.to
- 5
GitHub Security Lab의 Taskflow Agent: LLM 및 YAML 선언적 방식으로 80개 이상의 실제 취약점 발견한 MCP 프레임워크
GitHub Security Lab이 LLM과 YAML 기반의 선언적 방식을 통해 보안 취약점을 탐지하는 오픈소스 프레임워크 'Taskflow Agent'를 공개했습니다. 이 프레임워크는 복잡한 보안 조사를 작은 단위의 검증 가능한 작업(taskflow)으로 분해하여, 이미 80개 이상의 보안 이슈와 30여 개의 실제 취약점을 발견하는 성과를 거두었습니다.
Taskflow Agent de GitHub Security Lab: el framework MCP que descubrió 80+ vulnerabilidades reales con LLMs y YAML declarativo↗dev.to
- 7
키위찬, 완전 로컬화: 2,362 액션, 35B 파라미터 브레인, 그리고 대규모 Birch Plank 반란
마인크래프트 자율 에이전트 'Kiwi-chan'이 클라우드 API 의존성을 완전히 제거하고 Qwen 35B 모델을 활용한 로컬 추론 시스템으로 전환에 성공했습니다. 44%의 성공률을 단순한 실패가 아닌 학습을 위한 '교정 곡선'으로 정의하며, 로컬 환경에서의 자율적 추론과 에러 복구 메커니즘의 진보를 보여줍니다.
Kiwi-chan Goes Fully Local: 2,362 Actions, One 35B Parameter Brain, and the Great Birch Plank Rebellion↗dev.to
- 12
ZAYA1-8B, 10억 개 미만의 활성 파라미터로 DeepSeek-R1의 수학 능력과 어깨를 나란히 하다
Zyphra가 공개한 ZAYA1-8B는 10억 개 미만의 활성 파라미터만으로 DeepSeek-R1 수준의 수학 능력을 구현한 혁신적인 MoE(Mixture of Experts) 모델입니다. 특히 NVIDIA가 아닌 AMD 하드웨어 환경에서 엔드투엔드 학습에 성공하며, 효율적인 추론 기술인 'Markovian RSA'를 통해 고성능을 입증했습니다.
ZAYA1-8B matches DeepSeek-R1 on math with less than 1B active parameters↗firethering.com
- 15
Claude의 생각 텍스트 변환: 자연어 오토인코더 활용
앤스로픽(Anthropic)이 AI 모델의 내부 연산 데이터인 '활성화(activations)'를 사람이 읽을 수 있는 자연어로 변환하는 '자연어 오토인코더(NLA)' 기술을 공개했습니다. 이 기술은 블랙박스 상태인 LLM의 내부 사고 과정을 텍스트로 추출하여, 모델의 숨겨진 의도나 안전성 문제를 직관적으로 파악할 수 있게 해줍니다.
Natural Language Autoencoders: Turning Claude's Thoughts into Text↗anthropic.com
- 16
DPO vs SimPO: 당신의 선호도 트레이너는 무엇을 최적화하고 있는가
이 기사는 LLM 선호도 학습(Preference Tuning)의 핵심 방법론인 DPO와 SimPO의 기술적 차이를 심층 비교하며, 단순한 학습 지표의 상승이 아닌 검증 데이터(Held-out)에서의 실제 성능 개선 여부를 확인하는 것이 중요하다고 강조합니다. 특히 SimPO가 참조 모델 없이 길이 정규화를 통해 답변 길이 편향을 줄이는 메커니즘을 상세히 설명합니다.
DPO vs SimPO: What Your Preference Trainer Is Actually Optimizing↗dev.to

















