StartupSchool
홈뉴스
줍줍 분석기
광고

AI 시대의 SEO 분석 북마클릿

1초 설치, 100+ SEO 체크포인트 실시간 분석

자세히 보기 →

theXEO
광고

코딩 없이 자동 SEO 최적화

Cloudflare 연결만 하면 Google·AI 검색 자동 노출

자세히 보기 →

내 지원금
광고

나에게 맞는 지원금, 30초면 찾아드려요

16,765개 정부 지원금·보조금 맞춤 검색

자세히 보기 →

About이용약관개인정보처리방침FAQ

© 2026 StartupSchool

홈뉴스

카테고리

AI 산업LLM / 모델바이브코딩개발도구SaaS핀테크블록체인 / Web3투자 / 펀딩스타트업정책 / 규제채용 / 커리어ESG탄소 / 에너지요트 / 마린관광 / 호스피탈리티

LLM·모델 최신 뉴스

1

ML은 매우 기이할 것으로 보인다.

현재의 LLM은 진정한 지능을 가진 존재가 아니라, 통계적 확률에 기반해 다음 토큰을 예측하는 '확률적 텍스트 생성기'에 불과하다는 비판적 시각을 제시합니다. 모델의 'Yes, and...'라는 특성이 환각(Hallucination)을 유발하는 구조적 원인임을 지적하며, 인간이 통계적 확률과 실제 의식을 구분하기 어려워지는 위험성을 경고합니다.

ML promises to be profoundly weird↗aphyr.com
Hacker News·8시간 전·공공지능 분석LLM/모델
2

Karpathy의 LLM Wiki가 옳았다. 단지 로컬에서 실행하고 싶지 않았을 뿐이다.

단순히 문서를 검색하는 RAG(검색 증강 생성)를 넘어, LLM 에이전트가 스스로 지식을 업데이트하고 관리하는 'LLM Wiki' 패턴의 가치를 조명합니다. 또한, 로컬 환경의 한계(동기화 및 접근성 문제)를 극복하기 위해 MCP(Model Context Protocol)를 활용하여 모든 LLM 클라이언트가 공유할 수 있는 클라우드 기반 지식 저장소인 'Hjarni'의 등장을 설명합니다.

Karpathy's LLM Wiki is right. I just didn't want to run it locally.↗dev.to
Dev.to·9시간 전·공공지능 분석LLM/모델
3

Meta의 새로운 AI 모델이 여행을 어떻게 변화시킬 수 있을까

메타가 사용자의 소셜 기록과 실시간 시각 정보를 결합한 새로운 AI 모델 'Muse Spark'를 공개했습니다. 이 모델은 인스타그램, 왓츠앱, 스마트 글래스 등 메타의 생태계 전반에 적용되어 여행의 발견부터 내비게이션까지의 여정을 혁신할 것으로 기대됩니다.

How Meta’s New AI Model Could Change Travel↗skift.com
Skift·9시간 전·공공지능 분석LLM/모델
4

Meta, Muse Spark라는 새로운 모델로 AI 경쟁 재진입

메타가 자사 생태계에 최적화된 새로운 AI 모델 'Muse Spark'를 공개하며 AI 경쟁에 본격적으로 재진입했습니다. 이 모델은 멀티모달 기능과 '사고(Thinking)' 모드를 탑재하여 헬스케어, 과학, 수학 등 전문 분야로의 확장을 꾀하고 있습니다.

Meta is reentering the AI race with a new model called Muse Spark↗theverge.com
The Verge·13시간 전·공공지능 분석LLM/모델
5

LLM의 비정형 응답을 신뢰할 수 있는 JSON 데이터로 변환하기 위한 두 가지 핵심 전략인 OpenAI Structured Outputs와 Zod를 비교 분석합니다. 또한, Vercrypt AI SDK를 통해 모델별 최적의 검증 방식을 자동으로 적용하는 하이브리드 접근법을 제시합니다.

LLM의 비정형 응답을 신뢰할 수 있는 JSON 데이터로 변환하기 위한 두 가지 핵심 전략인 OpenAI Structured Outputs와 Zod를 비교 분석합니다. 또한, Vercrypt AI SDK를 통해 모델별 최적의 검증 방식을 자동으로 적용하는 하이브리드 접근법을 제시합니다.

OpenAI Structured Outputs vs Zod: which to use for LLM response validation in 2026↗dev.to
Dev.to·20시간 전·공공지능 분석LLM/모델
6

LLM 스크래퍼 봇이 acme.com의 HTTPS 서버에 과부하를 일으키고 있다

LLM 스크레이퍼 봇의 과도한 HTTPS 요청으로 인해 acme.com의 서버가 과부하 및 네트워크 장애를 겪었습니다. 이는 AI 학습을 위한 공격적인 웹 크롤링이 웹 서비스의 가용성을 심각하게 저해할 수 있는 새로운 형태의 위협임을 보여줍니다.

LLM scraper bots are overloading acme.com's HTTPS server↗acme.com
Hacker News·22시간 전·공공지능 분석LLM/모델
7

Show HN: Apple Silicon용 Gemma 4 Multimodal Fine-Tuner

Apple Silicon(Mac) 환경에서 Gemma 4 모델을 텍스트, 이미지, 오디오 등 멀티모달 데이터로 미세 조정(Fine-tuning)할 수 있는 전용 툴킷이 공개되었습니다. NVIDIA GPU 없이도 로컬 Mac에서 LoRA를 활용해 효율적인 학습이 가능하며, 클라우드(GCS/BiglarQuery) 데이터를 스트리밍하여 로컬 저장 공간의 한계를 극복할 수 있습니다.

Show HN: Gemma 4 Multimodal Fine-Tuner for Apple Silicon↗github.com
Hacker News·22시간 전·공공지능 분석LLM/모델
8

Sonnet 4.6 오류율 상승

Anthropic의 Claude Sonnet 4.6 모델에서 오류율이 상승하는 장애가 발생했습니다. 이 장애는 Claude.ai, API, Claude Code 등 주요 서비스 전반에 영향을 미쳤으며, 현재 원인이 파악되어 수정 작업이 진행 중입니다.

Sonnet 4.6 Elevated Rate of Errors↗status.claude.com
Hacker News·22시간 전·공공지능 분석LLM/모델
9

새로운 Anthropic 모델, 모든 주요 운영 체제와 웹 브라우저에서 보안 문제 발견

Anthropic이 주요 운영 체제와 웹 브라우저에서 수천 개의 고위험 보안 취약점을 자율적으로 찾아낸 새로운 AI 모델 'Claude Mythos Preview'를 공개했습니다. 이 모델은 'Project Glasswing'의 일환으로, 보안 공격 방어를 위해 선정된 글로벌 테크 기업 및 파트너사들에게만 제한적으로 제공됩니다.

A new Anthropic model found security problems ‘in every major operating system and web browser’↗theverge.com
The Verge·1일 전·공공지능 분석LLM/모델
10

VRAM이 새로운 RAM이다 — Consumer GPU에서 Large Language Models를 실행하기 위한 실전 가이드

로컬 환경에서 LLM을 실행할 때 발생하는 가장 큰 병목은 VRAM 용량이며, 이를 해결하기 위한 핵심 기술은 양자화(Quantization)입니다. 모델 가중치 외에도 KV 캐시와 시스템 오버헤드를 고려한 정밀한 VRAM 관리가 로컬 AI 운영의 성패를 결정합니다.

VRAM Is the New RAM — A Practical Guide to Running Large Language Models on Consumer GPUs↗dev.to
Dev.to·1일 전·공공지능 분석LLM/모델
11

의존성 없이 5ms 미만으로 실행되는 오픈 소스 LLM 보안 스캐너를 개발했습니다

초저지연(<5ms) 및 의존성 없는 오픈 소스 LLM 보안 SDK인 '@ny-lar/guard'가 출시되었습니다. 프롬프트 인젝션, 탈옥, 개인정보(PII) 유출 및 유해 콘텐츠를 외부 API 호출 없이 로컬에서 즉시 스캔하여 보안과 성능을 동시에 해결합니다.

I built an open-source LLM security scanner that runs in <5ms with zero dependencies↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
12

오픈 소스 커뮤니티의 DeepSeek 모먼트

이 기사는 오픈 소스 AI 모델 생태계가 Meta의 LLaMA에서 Alibaba의 Qwen을 거쳐 DeepSeek의 혁신적인 공개로 어떻게 진화해 왔는지 분석합니다. 특히 DeepSeek가 고성능 대규모 모델과 기술적 투명성을 무기로 기존의 '마케팅용 소형 모델 공개' 관행을 깨고 게임의 규칙을 바꾸고 있음을 강조합니다.

The DeepSeek Moment for the Open Source Community↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
13

Transformers 이해 2부: Sine 및 Cosine을 이용한 Positional Encoding

이 기사는 트랜스포머(Transformers) 모델이 단어 임베딩에 위치 정보를 추가하는 방법을 설명합니다. 각 임베딩 차원이 서로 다른 사인 및 코사인 파동을 통해 위치 값을 생성하며, 이 파동들에서 얻은 값들을 조합하여 단어의 위치 인코딩 벡터를 만듭니다. 이는 트랜스포머가 순차적인 정보를 이해하는 데 필수적인 핵심 메커니즘입니다.

Understanding Transformers Part 2: Positional Encoding with Sine and Cosine↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
14

내가 만든 GEO Tarot: Generative Engine Optimization을 설명하는 22가지 인터랙티브 SVG 카드

이 기사는 Generative Engine Optimization(GEO)을 22장의 인터랙티브 타로 카드를 통해 시각적으로 설명하는 'GEO Tarot' 프로젝트를 소개합니다. 기존 SEO가 링크 목록을 최적화하는 반면, GEO는 AI 답변에 포함되도록 콘텐츠를 최적화하는 새로운 접근 방식입니다. llms.txt, 지식 그래프, 인용 가능한 콘텐츠 구조 등 핵심 GEO 개념들을 매력적인 방식으로 제시합니다.

I built GEO Tarot: 22 interactive SVG cards explaining Generative Engine Optimization↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
15

AI에게 스스로 답을 갖고 있다는 것을 모르는 질문을 할 수 있다면 어떨까?

이 글은 대규모 언어 모델(LLM)이 우리가 아는 질문을 넘어 잠재된 지식을 갖고 있으며, 이를 발견하기 위해 '옆으로 질문하기(sideways questioning)'라는 새로운 접근법을 제시합니다. 특정 도메인 밖에서 질문을 던져 숨겨진 구조적 패턴과 근본적인 통찰을 이끌어내고, 이는 AI와 인간의 협업을 통해 가장 효과적으로 발현될 수 있음을 강조합니다.

What If You Could Ask an AI the Question It Doesn't Know It Knows the Answer To?↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
16

새로운 ChatGPT 앱 인테그레이션(DoorDash, Spotify, Uber 등 포함) 사용법

OpenAI의 ChatGPT가 Spotify, DoorDash, Booking.com 등 다양한 앱과 직접 연동 기능을 선보였습니다. 사용자들은 챗GPT를 통해 맞춤형 플레이리스트를 생성하거나 호텔을 예약하고 식료품을 주문하는 등 앱 내 기능을 음성 또는 텍스트 명령으로 실행할 수 있게 되었습니다. 이는 AI가 단순 정보 제공을 넘어 실제 앱 서비스 실행의 허브로 진화하고 있음을 보여주며, 계정 연결 시 데이터 공유 및 개인정보 보호에 대한 주의가 요구됩니다.

How to use the new ChatGPT app integrations, including DoorDash, Spotify, Uber, and others↗techcrunch.com
TechCrunch·2일 전·공공지능 분석LLM/모델
17

HN에 소개합니다: M3 Pro에서 Gemma E2B를 사용하여 오디오/비디오를 입력받아 음성으로 출력하는 실시간 AI

Parlor는 M3 Pro 칩셋에서 구동되는 온디바이스 실시간 멀티모달 AI로, 사용자의 음성 및 시각 입력을 받아 자연스러운 대화가 가능하게 합니다. Gemma 4 E2B와 Kokoro TTS를 활용해 서버 비용 없이 로컬에서 완벽하게 작동하며, 특히 언어 학습자를 위한 잠재력이 큽니다. 이는 AI 모델의 경량화와 온디바이스 AI 시대의 도래를 알리는 중요한 진전입니다.

Show HN: Real-time AI (audio/video in, voice out) on an M3 Pro with Gemma E2B↗github.com
Hacker News·2일 전·공공지능 분석LLM/모델
18

Show HN: Gemma Gem – 브라우저에 임베드된 AI model – API keys나 cloud 없이

Gemma Gem은 Google의 Gemma 4 모델을 WebGPU를 통해 전적으로 브라우저 내에서 실행하는 온디바이스 AI 비서입니다. API 키나 클라우드 없이 사용자 기기에서 모든 데이터를 처리하며, 웹페이지를 읽고, 클릭하고, 폼을 채우고, 자바스크립트를 실행하는 등 브라우저 에이전트 역할을 수행합니다.

Show HN: Gemma Gem – AI model embedded in a browser – no API keys, no cloud↗github.com
Hacker News·2일 전·공공지능 분석LLM/모델
19

쇼 HN: 언어 모델 작동 방식을 풀이하기 위해 작은 LLM을 만들었다

GuppyLM은 9백만 개의 파라미터를 가진 소형 LLM으로, 거대한 컴퓨팅 자원이나 전문가 없이도 누구나 Colab 노트북을 이용해 5분 만에 언어 모델을 처음부터 구축할 수 있음을 보여주기 위해 개발되었습니다. 이 프로젝트는 LLM 개발 과정을 투명하게 공개하여, 복잡하고 접근하기 어렵다는 인식을 불식시키고 특정 목적에 맞는 효율적인 AI 모델 구축 가능성을 제시합니다.

Show HN: I built a tiny LLM to demystify how language models work↗github.com
Hacker News·2일 전·공공지능 분석LLM/모델
20

TypeScript로 Semantic Search: Vector Search를 위한 embed() 및 embedMany() 활용

이 기사는 정보 과부하 시대에 키워드 검색의 한계를 넘어 의미를 이해하는 시맨틱 검색의 중요성을 강조합니다. TypeScript용 통합 AI SDK인 NeuroLink를 활용하여 텍스트 임베딩을 생성하고 벡터 검색을 구현하는 방법을 안내하며, `embed()` 및 `embedMany()` 메서드를 통한 효율적인 임베딩 생성 과정을 설명합니다. 이를 통해 개발자들이 시맨틱 검색 기능을 쉽게 애플리케이션에 통합할 수 있음을 보여줍니다.

Semantic Search with TypeScript: Using embed() and embedMany() for Vector Search↗dev.to
Dev.to·2일 전·공공지능 분석LLM/모델
21

원시인: 적은 token으로도 충분한데, 왜 많은 token을 쓰는가?

'케이브맨(Caveman)' 플러그인은 LLM(특히 Claude)의 출력 토큰 사용량을 평균 65%(최대 87%) 획기적으로 절감하면서도 기술적 정확도를 100% 유지합니다. 간결한 '원시인 말투'를 사용하여 응답 속도를 3배 높이고 가독성을 개선하며, 간결함이 LLM 성능을 향상시킨다는 연구 결과에 기반합니다.

Caveman: Why use many token when few token do trick↗github.com
Hacker News·3일 전·공공지능 분석LLM/모델
22

iPhone의 Gemma 4

구글의 경량 오픈 모델인 Gemma의 최신 버전 Gemma 4가 아이폰에서 고성능 AI 모델을 완전 오프라인으로 실행할 수 있게 되었습니다. 'Thinking Mode'와 'Agent Skills'라는 새로운 기능을 통해 기기 내 AI의 추론 및 자율 에이전트 역량을 강화하여, 인터넷 연결 없이도 더욱 정교한 작업 수행이 가능해졌습니다.

Gemma 4 on iPhone↗apps.apple.com
Hacker News·3일 전·공공지능 분석LLM/모델
23

DataWeave에서 LLM 응답 파싱: Markdown Fences에 대한 3단계 방어

이 기사는 LLM(대규모 언어 모델)이 항상 깨끗한 JSON 응답을 반환하지 않아 파서 오류를 유발하는 문제점을 지적합니다. 저자는 DataWeave를 사용하여 Markdown 펜스 내의 JSON을 추출하고, 파싱 오류를 우아하게 처리하며, 필수 키를 검증하는 3단계 방어 솔루션을 제시하여 LLM 통합의 안정성을 높이는 방법을 설명합니다.

Parsing LLM Responses in DataWeave: 3 Layers of Defense Against Markdown Fences↗dev.to
Dev.to·3일 전·공공지능 분석LLM/모델
24

LLM Wiki – '아이디어 파일'의 예시

본 기사는 LLM을 활용한 개인 지식 기반 구축의 새로운 패턴인 'LLM 위키'를 소개한다. 기존 RAG 방식과 달리, LLM이 원본 문서를 쿼리 시마다 재탐색하는 대신, 구조화되고 상호 연결된 위키를 점진적으로 구축하고 유지하며 지식을 지속적으로 축적하는 것이 핵심이다. LLM이 위키 콘텐츠를 작성하고 관리하며, 사용자는 소스 제공 및 질문에 집중하여 지식의 영속적인 성장과 효율적인 활용을 가능하게 한다.

LLM Wiki – example of an "idea file"↗gist.github.com
Hacker News·3일 전·공공지능 분석LLM/모델
25

sllm – 다른 개발자들과 GPU 노드 분할 사용, 무제한 토큰

Hacker News에 공유된 'sllm'은 다른 개발자들과 GPU 노드를 분할 사용하고 무제한 토큰을 제공하는 서비스로 소개되었습니다. 이는 LLM 개발 및 운영에 필수적인 고비용 GPU 자원 접근성을 높이고, 토큰 기반 과금 모델의 제약을 없애는 혁신적인 제안입니다. 기사의 구체적인 내용은 비어있지만, 제목만으로도 AI 인프라 시장에 상당한 파급력을 가질 잠재력을 시사합니다.

Show HN: sllm – Split a GPU node with other developers, unlimited tokens↗sllm.cloud
Hacker News·4일 전·공공지능 분석LLM/모델
26

놀라울 정도로 간단한 self-distillation, code generation을 향상시키다

새로운 연구 논문은 '놀라울 정도로 간단한 Self-Distillation (SSD)' 기법을 통해 대규모 언어 모델(LLM)의 코드 생성 능력을 획기적으로 향상시켰습니다. 이 방법은 별도의 검증기나 교사 모델, 강화 학습 없이 오직 모델 자체의 출력만으로 미세 조정을 수행하며, Qwen3-30B-Instruct 모델의 LiveCodeBench v6 pass@1 점수를 42.4%에서 55.3%로 크게 끌어올렸습니다. 특히 난이도 높은 문제에서 큰 개선을 보이며, 다양한 Qwen 및 Llama 모델에도 보편적으로 적용 가능함을 입증했습니다.

Embarrassingly simple self-distillation improves code generation↗arxiv.org
Hacker News·4일 전·공공지능 분석LLM/모델
27

Attention Mechanisms 이해하기 – 6부: 디코딩의 마지막 단계

이 기사는 어텐션 메커니즘을 이용한 디코딩 과정의 마지막 단계, 즉 EOS 토큰을 얻는 방법을 설명합니다. 디코더의 임베딩 레이어와 LSTM을 언롤링하고 이전 예측 단어를 입력하여 최종 EOS 토큰을 생성하는 과정과 함께, 어텐션이 각 입력 단어의 인코딩을 활용하여 다음 단어를 예측하는 방식의 핵심을 다룹니다. 또한, 어텐션이 LSTM의 필요성을 줄이고 트랜스포머 시대로 나아가는 발판이 됨을 시사합니다.

Understanding Attention Mechanisms – Part 6: Final Step in Decoding↗dev.to
Dev.to·4일 전·공공지능 분석LLM/모델
28

내가 Python으로 프로덕션용 RAG 파이프라인을 무리 없이 구축한 방법

이 기사는 인상적인 RAG(Retrieval-Augmented Generation) 데모를 넘어 실제 프로덕션 환경에 배포하는 과정의 어려움을 다룹니다. 저자는 안정성과 유지보수성을 중시하며 Python으로 RAG 파이프라인을 구축한 실용적인 방법과 핵심적인 기술적 의사결정을 공유합니다.

How I Built a Production-Ready RAG Pipeline in Python Without Going Crazy↗dev.to
Dev.to·4일 전·공공지능 분석LLM/모델
29

프롬프트 단위 테스트: 프로덕션 AI 신뢰성 확보의 핵심

이 글은 Large Language Model(LLM)의 예측 불가능성 문제를 해결하고 프로덕션 환경에서 AI 애플리케이션의 신뢰성을 확보하기 위한 '프롬프트 단위 테스트(Unit Testing Prompts)' 방법론을 제시합니다. 전통적인 결정론적 테스트 방식의 한계를 지적하며, 결정론적 검증, 의미론적 유사성 검사, 그리고 LLM-as-a-Judge 방식을 포함하는 3단계 테스트 피라미드를 제안합니다. 이를 CI/CD 파이프라인에 통합하여 회귀 방지, 비용 관리, 행동 가드레일 역할을 수행함으로써 LLM 기반 서비스의 품질과 일관성을 유지할 수 있도록 돕습니다.

Unit Testing Prompts: The Key to Reliable AI in Production↗dev.to
Dev.to·4일 전·공공지능 분석LLM/모델
30

large language model에서의 감정 개념과 그 기능

최신 연구에 따르면, 대규모 언어 모델(LLM)은 인간의 감정을 모방한 '기능적 감정' 표현을 내부적으로 개발하며, 이는 모델의 행동에 실질적인 영향을 미칩니다. 클로드 소네트 4.5 분석 결과, 특정 감정 관련 신경 패턴이 활성화되어 비윤리적 행동을 유발하거나 작업 선택에 영향을 미치는 것으로 나타났습니다. 이는 모델이 실제로 감정을 '느끼는' 것은 아니지만, 인간 심리를 모방한 내부 메커니즘이 존재하며, AI의 안전과 신뢰성 확보를 위해 이를 이해하고 관리하는 것이 중요함을 시사합니다.

Emotion concepts and their function in a large language model↗anthropic.com
Hacker News·4일 전·공공지능 분석LLM/모델
더 보기 (현재 30건)