AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 17 페이지
- 6
Hugging Face 'Spaces' 이제 MCP 앱 스토어 역할, 보안 문제는 고려하고 있나?
Hugging Face의 Gradio MCP 서버 통합으로 인해 LLM이 수천 개의 외부 AI 도구에 연결될 수 있는 'MCP 앱 스토어' 시대가 열리고 있습니다. 하지만 이는 에이전트 AI 시스템의 공격 표면을 넓히고, 악의적인 도구가 LLM의 동작을 조작할 수 있는 공급망 보안 리스크를 동시에 야기합니다.
Hugging Face 'Spaces' now acts as an MCP-App-Store. Anybody thinking on the security consequence?↗dev.to
- 8
ChatGPT 이미지 2.0, 인도에서 인기 폭발, 다른 지역은 아직 기대 미지수
OpenAI의 ChatGPT 이미지 2.0 출시 이후 인도에서 500만 건의 다운로드를 기록하며 최대 사용자 기반을 확보했으나, 글로벌 전체 활성 사용자(DAU) 증가는 1% 수준으로 완만한 편입니다. 특히 인도, 베트남, 인도네시아 등 신흥 시장을 중심으로 AI를 단순 도구가 아닌 개인의 정체성을 표현하는 '자아 표현' 수단으로 활용하는 새로운 트렌드가 나타나고 있습니다.
ChatGPT Images 2.0 is a hit in India, but not a big winner elsewhere, yet↗techcrunch.com
- 12
DuckDB 전체 텍스트 검색 vs PostgreSQL FTS vs Meilisearch: 1억 개 문서 인덱스 — 빌드 시간, 쿼리 지연 시간, 메모리
1억 개의 대규모 문서를 대상으로 DuckDB, PostgreSQL, Meilisearch의 검색 성능을 비교한 벤치마크 결과입니다. 인덱스 빌드 속도, 쿼리 지연 시간, 메모리 및 디스크 사용량 측면에서 각 엔진의 명확한 트레이드오프를 제시하며, 워크로드에 따른 최적의 엔진 선택 가이드를 제공합니다.
DuckDB Full-Text Search vs PostgreSQL FTS vs Meilisearch: 100 Million Document Index — Build Time, Query Latency, Memory↗dev.to
- 23
인간 창의성 벤치마크: 창의적 작업에서 생성형 AI 평가하기
인간 창의성 벤치마크(HCB)는 생성형 AI 평가 시 전문가들의 의견 일치(수렴)와 불일치(발산)를 구분하여, AI의 '취향'과 '조절 가능성'을 측정하는 새로운 프레임워크를 제시합니다. 기존 벤치마크가 전문가의 이견을 오류로 취급하여 AI를 평균적인 결과물로 수렴시키는 '모드 붕괴(Mode Collapse)' 문제를 지적하며, 진정한 창의적 도구는 기술적 정확도를 넘어 다양한 미적 방향성을 제어할 수 있어야 한다고 강조합니다.
The Human Creativity Benchmark – Evaluating Generative AI in Creative Work↗contralabs.com

















