AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 6 페이지
- 0
Minecraft에 로컬 Qwen 35B를 실행해 봤더니 제작법을 익혔다 (3,562번의 AI 연산 비용을 지불하며)
클라우드 API 없이 로컬 환경에서 Qwen 35B 모델을 활용해 마인크래프트 자율 에이전트 'Kiwi-chan'을 구동한 실험 결과, 47.2%라는 유의미한 작업 성공률을 기록했습니다. 이는 API 비용과 속도 제한(Rate Limit)으로부터 자유로운 로컬 LLM 기반 에이전트가 복잡한 물리 환경에서도 자가 학습 및 회복 능력을 갖출 수 있음을 보여줍니다.
I Unleashed a Local Qwen 35B on Minecraft and It Learned to Craft (While Burning Down 3,562 Actions)↗dev.to
- 4
강력한 ML 기반 구축: 2장 - 분류 기능 출시
본 기사는 단순한 라이브러리 사용법을 넘어, 머신러닝 분류(Classification) 알고리즘의 내부 동작 원리를 밑바닥부터 구현하고 분석하는 AI 튜토리얼 시리즈의 두 번째 장을 소개합니다. 로지스틱 회귀부터 XGBoost까지 5가지 핵심 알고리즘의 구현과 함께, 정밀도(Precision), 재현율(Recall), ROC-AUC 등 모델 평가의 핵심 개념을 심도 있게 다룹니다.
Building Strong ML Foundations: Chapter 2 - Classification is Now Live↗dev.to
- 6
ChatGPT는 학습 데이터를 읽고, Perplexity는 실시간 웹을 읽는다. 당신의 전략은 둘 다 필요하다.
ChatGPT, Perplexity, Gemini는 아키텍처의 차이로 인해 질문의 35~40%에서 서로 완전히 다른 웹사이트를 인용합니다. 따라서 기업은 특정 플랫폼에 의존하지 않고, 실시간 웹 검색(RAG)과 학습 데이터(Parametric) 모두에 대응할 수 있는 다각적인 GEO(Generative Engine Optimization) 전략을 구축해야 합니다.
ChatGPT Reads Training Data. Perplexity Reads the Live Web. Your Strategy Needs Both.↗dev.to
- 7
200개 이상의 전문 모델로 AI 아키텍처를 설계했는데, GPT-5.5가 계산기처럼 보이게 만들다
기존 LLM의 범용적 한계를 극복하기 위해 200개 이상의 초정밀 전문 모델을 활용하는 'Tianshu(天枢)' 아키텍처를 소개합니다. 이 시스템은 '라우팅 브레인'을 통해 사용자의 의도를 분석하고 가장 적합한 전문가 모델에 작업을 할당하여, 전문 지식의 정확도를 극대화하는 것을 목표로 합니다.
I Designed an AI Architecture With 200+ Specialist Models — And It Makes GPT-5.5 Look Like a Calculator↗dev.to
- 10
일본에서 모델 deprecation으로 피해를 입고, Zombify를 개발하여 재발 방지
AI 모델의 갑작스러운 폐기(Deprecation)로 인한 서비스 장애를 방지하기 위해, 주요 AI 모델의 생애주기 변화를 모니터링하고 알림을 주는 'Zombify'가 출시되었습니다. 개발자가 직접 겪은 장애 경험을 바탕으로 OpenAI, Anthropic, Google Gemini 등의 모델 업데이트를 추적합니다.
I got burned by a model deprecation in Japan and built Zombify to stop it from happening again↗indiehackers.com
- 11
2026년 최고의 AI 롤플레잉 챗봇: 저는 여덟 AI를 이야기 가untlet에 통과시켜 봤고, 단 세 개만 살아남았습니다.
2026년 AI 롤플레잉 챗봇 시장을 분석하며, 단순한 텍스트 생성을 넘어 복잡한 서사와 장기 기억을 유지하는 상위 3개 모델을 소개합니다. 특히 Dondi.ai는 사용자의 개입 없이도 자발적인 플롯 반전과 세밀한 설정 기억을 통해 진정한 '스토리텔링' 능력을 보여주었습니다.
Best AI Chatbot for Roleplay 2026: I Ran Eight Bots Through a Gauntlet of Stories and Only Three Survived↗indiehackers.com
- 13
클링 3.5 vs 소라 vs Runway Gen-4 vs 피카 2.0: 2026년 최고의 AI 비디오 생성기는?
2026년 AI 비디오 생성 시장을 주도하는 4대 플랫폼(Kling 3.5, Sora, Runway Gen-4, Pika 2.0)의 성능, 비용, 제어력을 비교 분석한 보고서입니다. 각 모델의 카메라 컨트롤, 영상 길이, 가격 및 특정 워크플로우에 최적화된 활용 사례를 상세히 다룹니다.
Kling 3.5 vs Sora vs Runway Gen-4 vs Pika 2.0: Which AI Video Generator Is Best in 2026?↗dev.to
- 14
검색 증강 생성 (RAG): 외부 지식으로 대규모 언어 모델 강화
RAG(검색 증강 생성)는 LLM의 고질적인 문제인 환각(Hallucination)과 정보의 노후화 문제를 해결하기 위해 외부 지식을 검색하여 모델에 전달하는 기술입니다. 검색(Retriever)과 생성(Generator)을 결합하여 최신 데이터와 도메인 특화 지식을 반영한 정확한 답변을 가능하게 합니다.
Retrieval Augmented Generation (RAG): Enhancing Large Language Models with External Knowledge↗dev.to
- 18
1억 2천3백만 번의 CS2 케이스 개봉 시뮬레이션이 나에게 보여준 RNG 모델링에 대한 것
1억 2천만 번 이상의 CS2 케이스 개봉 시뮬레이션을 통해 발견한 확률형 아이템(RNG) 모델링의 기술적 오류와 해결책을 다룹니다. 부동 소수점 오차로 인한 확률 불일치, 조건부 확률의 잘못된 구현, 아이템 범위 설정 오류 등 개발자가 흔히 범하는 실수와 이를 방지하기 위한 정수 기반 가중치 방식 등을 설명합니다.
What 123 million simulated CS2 case openings taught me about modeling RNG↗dev.to - 19
30달러로 편향성 판단 AI를 미세 조정했습니다. 훈련은 쉬운 부분이었죠.
단돈 30달러와 2시간의 GPU 사용만으로 편향성 판단 전문 AI를 구축한 사례를 통해, 모델 훈련 자체보다 데이터 파이프라인 설계와 커리큘럼 디자인이 성능의 핵심임을 입증했습니다. 특히 DPO(Direct Preference Optimization) 기법이 특정 패턴의 정밀도는 높이지만, 학습하지 않은 데이터(OOD)에 대한 일반화 성능을 저하시킬 수 있다는 중요한 기술적 통찰을 제공합니다.
I fine-tuned a bias judge for $30. The training was the easy part.↗dev.to
- 20
솔라나에서 서드파티 API 없이 실시간 토큰 가격 엔진 구축하기
솔라나 기반 트레이딩 플랫폼 MadeOnSol이 외부 API(Dexscreener 등)에 의존하지 않고, 자체 gRPC 스트림과 토큰 잔액 변화(Balance Diffs)를 활용해 실시간 토큰 가격 및 시가총액 엔진을 구축한 사례를 다룹니다. 데이터 의존성을 제거하여 레이턴시를 최소화하고 데이터 주권을 확보한 기술적 접근법이 핵심입니다.
# How I Built a Real-Time Token Price Engine on Solana Without Any Third-Party APIs↗dev.to
- 21
키위찬, 완전 현지화: 46% 성공률과 Qwen 35B 혁명
AI 에이전트 '키위찬(Kiwi-chan)'이 클라우드 의존성을 탈피하고 Qwen 35B 모델을 활용해 완전한 로컬 환경 구동에 성공했습니다. 46.2%의 성공률을 기록했음에도 불구하고, 실패를 데이터로 축적하며 스스로 코드를 수정하고 '지루함'이라는 메커니즘을 통해 자율적 행동을 생성하는 혁신적인 자가 학습 능력을 보여주었습니다.
Kiwi-chan Goes Fully Local: 46% Success Rate and the Qwen 35B Revolution↗dev.to











