AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 8 페이지
- 2
Chrome의 4GB AI 모델은 새로운 것이 아니지만, 혼란스러워하는 것은 당연합니다.
구글 크롬이 사용자에게 명확한 사전 고지 없이 4GB 규모의 Gemini Nano AI 모델을 다운로드하여 저장 공간을 점유하면서 사용자 혼란을 야기하고 있습니다. 이는 구글의 'AI 기본값(AI as default)' 전략의 일환이지만, 최근 설정 문구 변경으로 인해 온디바이스 AI의 데이터 프라이버시 신뢰도까지 흔들리고 있는 상황입니다.
Chrome's 4GB AI model isn't new, but you're not wrong for being confused↗arstechnica.com
- 10
ChatGPT에서 Claude로 전환해도 맥락을 잃지 않는 방법
AI 모델(ChatGPT, Claude 등)을 전환할 때 발생하는 '맥락 상실(Context Amnesia)' 문제를 해결하기 위해, 채팅 UI와 메모리를 분리하여 독립적인 '컨텍스트 레이어'를 구축하는 방법론을 제시합니다. MemoryLake와 같은 도구를 활용해 파일과 데이터를 모델에 종속되지 않는 인프라로 관리함으로써 업무의 연속성을 확보하는 것이 핵심입니다.
How to Switch from ChatGPT to Claude Without Losing Your Context↗dev.to
- 12
스코어부터 워크플로우까지: STEM BIO-AI를 로컬 감사 시스템으로 전환하다
본 기사는 STEM BIO-AI 감사 도구가 단순한 신뢰도 점수 산출(Scoring)을 넘어, 개발자 워크플로우에 통합 가능한 '운영 중심의 시스템'으로 진화하는 과정을 다룹니다. 핵심은 복잡한 데이터를 하나의 점수로 통합하지 않고, 구조적 점수, 진단, 규제 추적성, AI 자문을 별도의 '레인(Lane)'으로 분리하여 운영의 명확성과 신뢰도를 높이는 아키텍처의 전환입니다.
From Score to Workflow: Turning STEM BIO-AI Into a Local Audit System↗dev.to
- 18
-9.15pp에서 +0.61pp로: 네 번의 DPO 반복 실패를 통한 엔지니어링 여정
DPO(Direct Preference Optimization)를 이용한 코딩 모델 학습 과정에서 발생한 심각한 성능 저하(-9.15pp)와 이를 극복하기 위한 엔지니어링 여정을 다룹니다. 자동화된 데이터 검증 파이프라인의 허점을 발견하고, 단순 문법적 정확성을 넘어 데이터의 의미론적(Semantic) 무결성을 확보하는 것이 모델 성능 향상의 핵심임을 보여줍니다.
From -9.15pp to +0.61pp: An engineering journey through four DPO iteration failures↗dev.to
- 19
GitHub Security Lab의 Taskflow Agent: LLM 및 YAML 선언적 방식으로 80개 이상의 실제 취약점 발견한 MCP 프레임워크
GitHub Security Lab이 LLM과 YAML 기반의 선언적 방식을 통해 보안 취약점을 탐지하는 오픈소스 프레임워크 'Taskflow Agent'를 공개했습니다. 이 프레임워크는 복잡한 보안 조사를 작은 단위의 검증 가능한 작업(taskflow)으로 분해하여, 이미 80개 이상의 보안 이슈와 30여 개의 실제 취약점을 발견하는 성과를 거두었습니다.
Taskflow Agent de GitHub Security Lab: el framework MCP que descubrió 80+ vulnerabilidades reales con LLMs y YAML declarativo↗dev.to
- 21
키위찬, 완전 로컬화: 2,362 액션, 35B 파라미터 브레인, 그리고 대규모 Birch Plank 반란
마인크래프트 자율 에이전트 'Kiwi-chan'이 클라우드 API 의존성을 완전히 제거하고 Qwen 35B 모델을 활용한 로컬 추론 시스템으로 전환에 성공했습니다. 44%의 성공률을 단순한 실패가 아닌 학습을 위한 '교정 곡선'으로 정의하며, 로컬 환경에서의 자율적 추론과 에러 복구 메커니즘의 진보를 보여줍니다.
Kiwi-chan Goes Fully Local: 2,362 Actions, One 35B Parameter Brain, and the Great Birch Plank Rebellion↗dev.to

















