프롬프트 엔지니어링 뉴스
LLM 프롬프트 설계, 시스템 프롬프트, 컨텍스트 엔지니어링, 프롬프트 인젝션 방어 등에 관한 글.
총 525건
- 382
Gemini, Google 포토를 분석하여 개인 맞춤형 AI 이미지를 생성할 수 있게 됐습니다.
구글이 Gemini에 '개인 맞춤형 지능(Personal Intelligence)' 기능을 도입하여 구글 포토와 연동하기 시작했습니다. 이를 통해 사용자는 별도의 복잡한 프롬프트 입력 없이도 자신의 사진 속 인물이나 반려동물을 활용해 개인화된 AI 이미지를 생성할 수 있습니다.
Gemini can now create personalized AI images by digging around in Google Photos↗arstechnica.com
- 384
Google, Nano Banana 구동 이미지 생성 기능을 Gemini의 개인 인텔리전스에 추가
구글이 Gemini의 '개인 인텔리전스' 기능에 Nano Banana 기술을 활용한 개인 맞춤형 이미지 생성 기능을 도입합니다. 이 기능은 사용자의 Gmail, Google 포토 등 구글 계정 데이터를 활용하여, 별도의 상세 프롬프트 없이도 사용자의 취향과 맥락을 반영한 이미지를 생성할 수 있게 해줍니다.
Google adds Nano Banana-powered image generation to Gemini’s Personal Intelligence↗techcrunch.com
- 387
Claude Code의 보안 기본값: 요청하지 않을 때 제공되는 내용
Claude Code와 Codex 같은 AI 코딩 어시스턴트는 요청하지 않은 보안 기능(Rate limiting, 보안 헤더 등)을 자동으로 구현하지 않으므로, 개발자가 명시적인 프롬프트를 통해 보안 설정을 지시해야 합니다. 이번 연구는 AI가 기능적 구현에는 뛰어나지만, '말하지 않은 보안' 영역에서는 취약점을 남길 수 있음을 경고합니다.
Claude Code's Security Defaults: What It Ships When You Don't Ask↗dev.to
- 388
AI 코딩 에이전트가 당신의 코드베이스를 계속 잊어버리는 이유 (그리고 AST + Gemini로 어떻게 해결했는지)
AI 코딩 에이전트가 세션마다 동일한 실수를 반복하는 근본 원인은 '지속 가능한 메모리의 부재'에 있습니다. 이 글은 AST(추상 구문 트리)를 통해 코드의 구조적 정보를 추출하고, 이를 LLM(Gemini)으로 요약하여 관계 중심의 '지식 그래프'를 구축함으로써 에이전트에게 영구적인 컨텍스트를 제공하는 해결책을 제시합니다.
Why AI coding agents keep forgetting your codebase (and how we fixed it with ASTs + Gemini)↗dev.to
- 389
MCP 보안 위험: 프롬프트 인젝션, 툴 포이즈닝, 그리고 러그 풀 공격
MCP(Model Context Protocol) 도입으로 인해 AI 에이전트가 처리하는 데이터가 공격의 매개체가 되는 새로운 보안 위협 모델이 등장했습니다. 프롬프트 인젝션, 툴 포이즈닝, 러그 풀 공격 등 에이전트의 권한을 악용하는 구체적인 공격 방식과 이를 방어하기 위한 다층적 보안 전략의 필요성을 분석합니다.
MCP Security Risks: Prompt Injection, Tool Poisoning, and Rug Pull Attacks↗dev.to
- 391
Show HN: Skillgrab – 프로젝트 스캔 후 일치하는 AI 기술 자동 설치
Skillgrab은 프로젝트의 설정 파일과 README를 스캔하여 사용 중인 기술 스택과 비즈니스 요구사항을 자동으로 파악하고, Cursor나 Claude Code 같은 AI 코딩 에이전트에 최적화된 '스킬(지침 및 플러그인)'을 자동으로 설치해주는 자동화 도구입니다. 개발자가 일일이 프롬프트를 작성할 필요 없이, 프로젝트 구조만으로 AI 에이전트가 즉시 프로젝트 맥락을 이해하도록 돕습니다.
Show HN: Skillgrab – scan any project, auto-install matching AI skills↗briascoi.github.io
- 392
Show HN: LLM의 컨텍스트 손실 없이 민감 데이터 익명화하기
클라우드 LLM을 보안 관제에 활용할 때 발생하는 데이터 유출 문제를 해결하기 위해, 데이터의 문맥(Context)을 유지하면서 민감 정보만 익명화하는 '프록시 레이어' 구축 과정을 다룹니다. 단순한 데이터 삭제를 넘어, IP의 네트워크 특성이나 도메인의 구조적 특징을 보존하여 LLM의 보안 추론 능력을 저하시키지 않는 기술적 돌파구를 제시합니다.
Show HN: Pseudonymizing sensitive data for LLMs without losing context↗atticsecurity.com
- 393
OpenAI의 Promptfoo 인수, 에이전트 스택의 핵심은 평가 및 레드팀 운영
OpenAI의 Promptfoo 인수는 AI 에이전트의 가치가 단순한 언어 능력을 넘어, 배포 전 실패를 테스트하고 관리할 수 있는 '신뢰성'과 '거버넌스'로 이동하고 있음을 상징합니다. 이는 AI 개발 사이클에 평가 및 레드팀 운영이 필수적인 인프라로 자리 잡는 전환점을 의미합니다.
OpenAI's Promptfoo deal puts evaluation and red-teaming at the centre of the agent stack↗dev.to
- 395
AI 코딩 에이전트가 자꾸 잊어버리는 이유 (그리고 MCP 메모리로 어떻게 해결했는지)
AI 코딩 에이전트가 세션이 바뀔 때마다 과거의 결정이나 버그 수정 내역을 잊어버리는 '기억 상실(Amnesia)' 문제를 MCP(Model Context Protocol)를 활용한 외부 메모리 서버 구축으로 해결하는 방법을 제시합니다. 단순한 프롬프트 확장이 아닌, 지식 그래프 형태의 영구적 지식 계층을 에이전트에게 부여하여 프로젝트 전반에 걸쳐 지식이 축적되고 재사용되도록 하는 것이 핵심입니다.
Why AI coding agents keep forgetting everything (and how I fixed it with MCP memory)↗dev.to
- 397
Show HN: Memwright – 멀티 에이전트 팀을 위한 자체 호스팅 메모리, LLM 우회
Memwright는 멀티 에이전트 시스템의 고질적인 문제인 '기억 상실'과 '비용 효율성 저하'를 해결하기 위한 자체 호스팅 메모리 인프라입니다. LLM을 거치지 않는 결정론적 검색과 토큰 예산 관리를 통해, 에이전트 간의 지식 연속성을 보장하고 프롬프트 비대화를 방지하는 구조적 솔루션을 제공합니다.
Show HN: Memwright – Self-hosted memory for multi-agent teams, no LLM in path↗github.com









