
최근 발표된 블로그 게시물에서 연구소는 일관성 있고 재생 가능한 AI 모델 구축 프로젝트를 소개했습니다.
기사 제목은 'LLM 추론의 불확실성 방지'(LLM은 언어 생성 및 기타 자연어 처리 작업에서 일반적인 능력을 가진 언어 모델입니다. LLM은 복잡한 계산이 많은 자기 모니터링 및 반 모니터링 훈련 과정에서 텍스트에서 통계적 관계를 학습하여 이러한 능력을 얻습니다.) 커뮤니티에 따르면 이것은 원래 AI광의 본질이지만 Thinking Machines는 그것을 해결 가능한 문제로 간주합니다.
실험실 연구원인 Horace He는 우연이 추론 과정에서 배열에서 비롯된다고 주장합니다. 그는 조정 계층(GPU):을 엄격하게 제어하면 모델이 더 결정적일 수 있고 거기에서 안정적인 결과가 나올 수 있다고 주장합니다.
기업과 과학계가 보다 신뢰할 수 있는 피드백을 받을 수 있도록 돕는 것 외에도 안정적인 모델에 대한 일자리는 강화 학습(RL) 과정을 개선합니다. 왜냐하면 RL은 올바른 답변에 대한 칭찬이 필요하지만 피드백이 매번 다르면 데이터가 혼란스러워집니다. Thinking Machines dua에 따르면 일관된 피드백은 RL을 더욱 부드럽게 만드는 데 도움이 됩니다. 회사는 또한 The Information의 소식통에 따르면 RL을 사용하여 기업의 AI 모델을 사용자 정의할 계획입니다
OpenAI의 기술 이사였던 Murati는 Thinking Machines의 첫 번째 제품이 몇 달 안에 출시될 예정이며 연구원과 스타트업이 맞춤형 모델을 개발하는 데 유용할 것이라고 밝혔습니다. 그러나 회사는 이 제품이 무엇인지 재생 피드백 연구를 적용할지 여부는 불분명합니다.
연구소는 또한 대중에게 이익을 주고 내부 연구 문화를 개선하기 위해 블로그 게시물 소스 코드 및 연구 문서를 정기적으로 게시할 것이라고 확인했습니다. 이러한 접근 방식은 OpenAI가 초기 단계에 개방형 연구를 추구했을 때 규모 개발과 함께 더 조용해지기 전의 단계를 연상시킵니다.