최신정보

엘론 머스크 xAI 오픈소스 전문가 혼합 모델 Grok-1 출시

컨텐츠 정보

  • 212 조회

본문

엘론 머스크의 xAI 오픈소스 전문가 혼합 모델 Grok-1 출시

 

대규모 언어 모델인 Grok-1 의 기본 모델 가중치와 네트워크 아키텍처를 출시합니다 . Grok-1은 xAI를 통해 처음부터 훈련된 3,140억 개의 매개변수 Mixture-of-Experts 모델입니다.

이는 2023년 10월에 종료된 Grok-1 사전 훈련 단계의 원시 기본 모델 체크포인트입니다. 이는 모델이 대화와 같은 특정 애플리케이션에 맞게 미세 조정되지 않았음을 의미합니다.

우리는 Apache 2.0 라이센스에 따라 가중치와 아키텍처를 공개합니다.

모델 사용을 시작하려면 github.com/xai-org/grok 의 지침을 따르세요 .

 

모델 세부정보
특정 작업에 맞게 미세 조정되지 않은 대량의 텍스트 데이터에 대해 학습된 기본 모델입니다.
314B 매개변수 Mixture-of-Experts 모델은 특정 토큰에 대해 25%의 가중치가 활성화되어 있습니다.
2023년 10월 JAX 및 Rust 기반의 커스텀 학습 스택을 사용하여 xAI로 처음부터 학습했습니다.
 

Grok-1 출시요약
 

-엘론 머스크의 xAI는 지금까지 가장 큰 오픈 소스 전문가 혼합 모델인 Grok-1을 출시함

-Grok-1은 3140억 개의 매개변수를 가지고 있으며 아파치 2.0 라이선스에 따라서 아키텍처 및 가중치 공개

-8개의 전문가 네트워크 중 2개(25%)가 각 입력 토큰에 대해 활성화

-Mistral의 Mixtral과 GPT-4도 이 아키텍처를 바탕으로 함

-Grok-1은 2023년 10월에 완료된 사전 훈련 단계의 기본 모델이며, 아직 특정 애플리케이션에 최적화되지 않음

-인간 피드백(RLHF)을 통한 조정이 없기 때문에 타 모델에 비해 안전성이 떨어질 수 있음

-xAI는 훈련 데이터에 대해 구체적으로 언급하지 않았으며 윤리적 또는 안전 지침도 제공하지 않음

-xAI는 JAX와 Rust 기반 기술 스택을 사용하여 모델을 처음부터 훈련

-GitHub에는 Grok-1에 대한 추가 정보 및 설치 가이드가 제공됨

-Grok-1은 학습 데이터가 2023년 3분기에 마감되었고, 모델의 컨텍스트 길이는 8,192 토큰임

-벤치마크에서 Grok-1은 GPT-3.5와 동등한 수준임

-Grok-1을 바탕으로 한 Grok 챗봇은 대부분의 AI 시스템에서 거부할 "화끈한 질문"에 답변

-엘론 머스크는 OpenAI에 대한 소송에서 비판한 것에 대한 반응으로 Grok을 오픈 소스로 공개할 계획임

-THE DECODER 뉴스레터와 커뮤니티는 AI 소식을 주간으로 제공하며 커뮤니티 참여를 독려함

관련자료


댓글 0
등록된 댓글이 없습니다.
Total 94 / 1 Page
RSS
번호
제목
이름

Member Rank