OpenAI Blog 뉴스
OpenAI 공식 블로그의 연구 발표, 모델 업데이트, 정책 소식을 큐레이션합니다.
총 119건
OpenAI Foundation에 대한 업데이트
OpenAI Foundation은 질병 치료, 경제적 기회, AI resilience 및 커뮤니티 프로그램에 최소 10억 달러를 투자할 계획이라고 발표했습니다.
Update on the OpenAI Foundation↗openai.com
ChatGPT 내 제품 탐색 기능 강화
ChatGPT는 Agentic Commerce Protocol을 기반으로 더욱 풍부하고 시각적으로 몰입감 있는 쇼핑 경험을 선보이며, 제품 탐색, 제품 간 비교, 그리고 merchant integration을 지원합니다.
Powering product discovery in ChatGPT↗openai.com
Sora로 안전하게 창작하기
OpenAI가 Sora 2 출시와 함께 발표한 강력한 안전 가이드라인을 다룹니다. C2PA 메타데이터를 통한 콘텐츠 출처 증명, 사용자 동의 기반의 'Characters' 기능을 통한 초상권 보호, 그리고 청소년 및 저작권 보호를 위한 다각적인 방어 체계를 핵심으로 합니다.
Creating with Sora Safely↗openai.com
OpenAI Japan, 십대 안전 최우선 지향 'Japan Teen Safety Blueprint' 발표
OpenAI Japan은 generative AI를 사용하는 청소년들의 연령 보호 강화, parental controls 구현, 웰빙 보호 장치 마련에 초점을 맞춘 'Japan Teen Safety Blueprint'를 발표했습니다. 이 이니셔티브는 미성년자를 위한 더 안전한 AI 환경을 조성하는 데 중요한 발걸음입니다.
OpenAI Japan announces Japan Teen Safety Blueprint to put teen safety first↗openai.com모델에서 에이전트로: Responses API에 컴퓨터 환경을 갖추다
OpenAI는 Responses API, 쉘 도구, 호스팅 컨테이너를 활용하여 파일, 도구, 상태를 갖춘 안전하고 확장 가능한 AI 에이전트 런타임을 구축했습니다. 이는 AI 모델이 단순히 텍스트를 생성하는 것을 넘어 실제 컴퓨터 환경에서 복잡한 작업을 자율적으로 수행할 수 있는 기반을 제공합니다. 이로써 AI 개발 패러다임이 '모델' 중심에서 '에이전트' 중심으로 진화하고 있음을 시사합니다.
From model to agent: Equipping the Responses API with a computer environment↗openai.com프론티어 LLM에서 명령어 계층 개선
OpenAI의 IH-Challenge는 LLM을 훈련하여 신뢰할 수 있는 지침을 우선시하게 함으로써 instruction hierarchy, safety steerability 및 prompt injection attacks에 대한 저항력을 높입니다. 이러한 중요한 발전은 AI 시스템의 신뢰성과 보안을 향상시킵니다. 이 기술은 모델이 악의적이거나 조작적인 외부 프롬프트보다 내부 안전 지침을 따르도록 보장합니다.
Improving instruction hierarchy in frontier LLMs↗openai.com추론 모델은 자신의 사고의 사슬을 통제하지 못하지만, 이는 긍정적이다.
OpenAI의 최근 연구에 따르면, 추론 모델(reasoning model)들이 자신의 '사고의 사슬(chains of thought, CoT)'을 완전히 제어하지 못하는 것으로 나타났습니다. 이는 AI 시스템의 안전을 보장하기 위해 외부적인 모니터링(monitorability)의 중요성이 더욱 강조된다는 긍정적인 신호입니다.
Reasoning models struggle to control their chains of thought, and that’s good↗openai.com