기본 콘텐츠로 건너뛰기

40만 사용자 블라인드 테스트한 LLM 모델 순위 1위는? (feat. LMSYS Chatbot Arena) [14-Claude AI 로 블로깅하고 책쓰기 ]


참고: 이 데이터는 Hugging Face에서 운영하는 LMSYS Chatbot Arena 에서 최근에 각동 LLM 모델들을 평가한 자료를 Claude 3로 분석하여 설명한 내용입니다. 아래 그래프나 도표는 모두 이 LMSYS Chatbot Arena 사이트에서 발췌한 것입니다.  

  https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard

LMSYS Chatbot Arena는 다양한 LLM(Large Language Model)의 성능을 종합적으로 평가하고 비교하기 위한 오픈 플랫폼입니다. 이 플랫폼에서는 크라우드소싱을 통해 수집한 사용자들의 선호도 평가 데이터를 바탕으로 모델 간 상대적 우열을 가리고 있습니다. 40만명이 넘는 사람들의 선호도 투표를 모아 Elo 랭킹 시스템으로 LLM을 순위화했습니다.


부연 설명:

  • LMSYS Chatbot  Arena Leaderboard 는 대규모 언어모델(LLM)의 성능을 평가하기 위한 플랫폼입니다.
  • 이 플랫폼은 크라우드소싱 방식으로 운영되며, 누구나 참여할 수 있는 오픈 플랫폼입니다.
  • 40만명 이상의 사람들이 직접 LLM들에 대한 선호도를 투표했습니다.
  • 이 투표 결과를 바탕으로 Elo 랭킹 시스템을 적용하여 LLM들의 순위를 매겼습니다.
  • Elo 랭킹 시스템은 전통적으로 체스 등 두 플레이어 간 경기에서 실력 차이를 수치화하는 데 사용되는 방식입니다.
  • 이 경우에는 사람들의 선호도 투표를 통해 LLM 간 상대적 성능 차이를 Elo 점수로 계산했습니다.

결론적으로 종합하면 현재로서는 Claude 3 opus와 GPT-4 계열 모델이 여러 평가 지표에서 최고 성적을 거두며 LLM 시장을 선도하고 있다고 평가할 수 있겠습니다. Bard, Claude 3 sonnet 등이 그 뒤를 바짝 추격하고 있으며, 구형 모델들과는 분명한 격차를 보이고 있습니다.




















주요 평가 항목과 그 의도를 살펴보면 다음과 같습니다:

1. 일대일 대결 승률 (Figure 1):

  •   각 모델 쌍 간의 일대일 대결에서의 승패 결과를 집계하여 승률을 계산한 것입니다.
  •    개별 모델 간의 상대적 우열 관계를 직관적으로 살펴볼 수 있습니다.
  •    특정 모델이 다른 모델에 비해 어느 정도의 우위를 점하는지 파악할 수 있습니다.

2. 대결 횟수 분포 (Figure 2):

  • 각 모델 쌍 간에 몇 번의 대결이 이루어졌는지를 히트맵 형태로 제시한 것입니다.
  • 단순히 승률뿐 아니라 평가 데이터의 양도 모델 평가에 중요한 요소임을 고려한 것으로 보입니다.
  • 대결 횟수가 적은 모델의 경우 평가 결과의 신뢰도가 낮을 수 있음을 시사합니다.

3. Elo 레이팅 (Figure 3):

  • 체스 등 경기에서 널리 사용되는 Elo 레이팅 시스템을 LLM 평가에 도입한 것입니다.
  • 각 모델의 레이팅 점수와 신뢰구간을 산출하여 종합적인 성능 순위를 매기는 것이 목적입니다.
  • 상대적으로 객관적이고 통계적으로 견고한 평가 결과를 제공하고자 했습니다.

4. 평균 승률 (Figure 4):

  •    각 모델이 무작위로 선택된 상대와 대결할 때 기대되는 승률을 계산한 것입니다.
  •    모델의 전반적인 경쟁력을 한 눈에 파악할 수 있는 지표로 활용될 수 있습니다.
  •    특정 태스크나 도메인에 국한되지 않는 일반적인 성능 척도로서의 의미가 있습니다.

LMSYS Chatbot Arena의 다양한 평가 지표와 그래프를 종합해 보면, 현재 LLM 시장에서는 Anthropic의 Claude 3 모델과 OpenAI의 GPT-4 모델이 가장 우수한 성능을 보이고 있음을 알 수 있습니다.

개별 모델 간 일대일 대결 승률(Figure 1)에서도 Claude 3와 GPT-4 모델은 대부분의 상대 모델을 압도하는 모습을 보였습니다. 반면 구형 GPT 모델 등 하위권 모델들은 신형 모델들에게 고전하는 양상이 뚜렷했습니다. 평균 승률(Figure 4) 역시 Claude 3 opus가 71%로 가장 높았고, GPT-4와 Bard가 그 뒤를 이었습니다.

대결 횟수 분포(Figure 2)를 보면, 고성능 모델들 사이에서는 더 많은 대결이 이루어졌음을 알 수 있습니다. 이는 해당 모델들의 우열을 가리고 보다 정교한 성능 평가를 위해 더 많은 데이터를 수집하려 한 것으로 보입니다.

우선 Elo 레이팅과 그에 대한 신뢰구간(Figure 3)을 살펴보면, Claude 3 opus와 GPT-4 모델들이 1,250점 내외의 높은 점수를 기록했으며, 그 뒤를 Bard와 Claude 3 sonnet 등의 모델이 잇고 있습니다. 신뢰구간을 고려했을 때 상위 3~4개 모델과 하위권 모델 간에는 통계적으로 유의미한 성능 격차가 존재합니다.

다만 일부 중하위권 모델의 경우 대결 횟수가 적어 신뢰구간이 넓게 형성되어 있었습니다. 이들 모델의 정확한 실력을 가늠하기 위해서는 추가적인 데이터 수집과 평가가 필요할 것으로 보입니다.

이러한 다양한 평가 항목을 통해 Chatbot Arena는 LLM 모델들의 상대적 성능을 다각도로 분석하고, 사용자들에게 종합적인 평가 정보를 제공하고자 했습니다. 단순히 특정 태스크에서의 정확도나 속도를 넘어, 실제 사용자들이 느끼는 선호도와 만족도를 반영하려 한 것이 특징적입니다.

이는 급속도로 발전하는 LLM 기술 생태계에서 모델 간 경쟁 구도를 객관적으로 파악하고, 개발사들에게는 기술 개선의 방향성을 제시하며, 사용자들에게는 모델 선택의 가이드라인을 제공하려는 취지로 읽힙니다. 나아가 LLM 분야의 건전한 발전과 혁신을 촉진하는 데 기여하고자 하는 의도도 엿보입니다.

다만 평가 과정의 공정성과 투명성, 도메인 특화 태스크에 대한 고려, 평가 대상 모델의 확장성 등은 지속적으로 개선해 나가야 할 과제로 보입니다. Chatbot Arena가 LLM 평가의 글로벌 스탠다드로 자리매김하기 위해서는 이러한 과제들을 꾸준히 해결해 나가는 노력이 필요할 것입니다.

하지만 대부분의 평가 대상 모델이 아직 비공개 베타 단계인 만큼, 실제 서비스 상용화 국면에서는 API 안정성, 비용 대비 효율성 등 non-LLM적인 요소들도 경쟁력을 좌우할 것으로 예상됩니다. 기술력과 함께 생태계 구축 역량, 비즈니스 전략 등이 종합적으로 고려되어야 할 것입니다.

또한 평가 과정의 공정성과 투명성을 높이고, 다양한 태스크 특화 벤치마크를 추가하는 등 Chatbot Arena의 지속적인 진화도 필요해 보입니다. LLM 기술이 나날이 발전하는 만큼, 평가 체계 역시 더욱 정교화되어야 할 것입니다. 장기적 관점에서 지속적인 모니터링과 분석이 병행된다면 LLM 시장의 건전한 발전에 기여할 수 있을 것으로 기대합니다.

댓글

이 블로그의 인기 게시물

[Gemini Deep Research 200% 활용법] Gemini 활용 전문가 팁

  Gemini 활용 전문가 팁 Gemini Deep Research 200% 활용법 AI에게 '알아서' 리서치를 시키는 것을 넘어, '최고의 결과물'을 받아내는 2단계 프롬프트 전략 Google Gemini의 'Deep Research' 기능, 정말 강력하죠. 하지만 "어떻게 질문해야 이 기능을 제대로 쓸 수 있을까?" 고민해 본 적 없으신가요? 원하는 답변 대신 너무 광범위하거나 초점이 맞지 않는 결과를 받아보고 실망한 경험도 있으실 겁니다. 오늘은 이 고민을 한 번에 해결해 드릴, 정말 간단하면서도 강력한  ' 2단계 메타 프롬프팅'  전략을 소개합니다. 이 방법은 AI 전문가가 아닌 일반 사용자 누구나 따라 할 수 있으며, 여러분을 단순한 '질문자'에서 AI의 잠재력을 이끌어내는 '프로젝트 감독'으로 만들어 줄 것입니다. 핵심 아이디어는 이렇습니다. "최고의 리서치 프롬프트를 내가 직접 쓰는 대신,  Gemini에게 '최고의 프롬프트를 만들어달라'고 먼저 요청 하는 것" 입니다. AI가 자기 자신을 가장 잘 아는 원리를 이용하는 거죠! 2단계로 완성하는 '전문가급 리서치' 이제부터 딱 두 단계만 따라 해보세요. 놀라운 결과물을 얻게 될 겁니다. 1  프롬프트 '설계도' 요청하기 먼저, 우리가 어떤 정보를 원하는지 Gemini에게 알려주고, 그에 맞는 완벽한 'Deep Research 실행용 프롬프트'를 만들어달라고 요청합니다. 아래 템플릿을 복사해서 여러분의 주제에 맞게 내용을 채워보세요. # 페르소나 당신은 Google Gemini의 'Deep Research' 기능에 대해 완벽하게 이해하고 있는 최고의 프롬프트 엔지니어입니다. 당신의 임무는 사용자의 연구 목표를 기반으로, Deep Research 기능의 성능을 극한까지 끌어낼 수 있는 가장 효과적이고 정교한 ...

[알아두면 쓸모 있는 구글 문서 팁] 문서 공유시- 사용자 이름 대신에 익명의 동물이 표시 되는 이유와 동물 종류

구글 드라이브에는 다른 유사 서비스에서는 제공하지 않는 구글 만의 유니크한 기능들이 있다 구글 문서를  불특정 다수에게 전체 공개로 공유할 수 있습니다. 불특정인이 구글 문서에 접속한 경우 익명의 동물로 표시됩니다.  ' 웹에 공개' 또는 '링크가 있는 사용자' 공유 설정을 선택하면 인식할 수 없는 이름이나 익명의 동물이 표시될 수 있습니다. 파일에서 인식할 수 없는 이름을 볼 수 있는 몇 가지 이유는 다음과 같습니다. 메일링 리스트와 파일을 공유합니다. Google 계정이 없는 사용자와 파일을 공유하며, 그 사용자가 다른 사용자에게 공유 초대를 전달했습니다. 내 파일을 수정할 수 있는 누군가가 파일을 다른 사용자와 공유했습니다. 다른 사용자가 자신의 Google 계정 이름을 변경했습니다. 공유 설정 페이지에서 해당 사용자 이름 위로 마우스를 이동하여 이메일 주소를 확인하세요. 익명의 동물 다른 사용자에게 개별적으로 보기 또는 수정 권한을 부여하거나 메일링 리스트에 속해 있는 경우에만 사용자 이름이 표시됩니다. 파일 권한을 '링크가 있는 사용자'로 설정하면 파일을 보고 있는 사용자의 이름이 표시되지 않습니다. 대신 다른 사용자가 익명으로 라벨이 지정되어 표시되고 각 익명 사용자는 다양한 익명의 동물로 나열됩니다. 파일 권한을 '링크가 있는 사용자'로 설정했지만 특정 사용자와 파일을 공유하는 경우 파일을 공유한 사용자의 이름이 표시됩니다. 그 외 다른 사용자가 파일을 볼 때는 익명으로 나타납니다. 비공개 파일의 익명 동물 파일 권한을 '링크가 있는 사용자'로 설정한 다음 이를 '특정 사용자'로 변경하면 다음과 같은 경우 여러 익명의 동물이 표시될 수 있습니다. 누군가 파일을 여러 번 여는 경우에는 익명의 동물 목록에서 오래되고 연결이 끊긴 세션을 강제 종료하는 데 조금 시간이 걸릴 수 있습니다. 누군가 온...

Claude 4 의 프롬프트 엔지니어링 완벽 가이드 백서 (by Anthropic)

  Claude 4 프롬프트 엔지니어링 완벽 가이드 🚀 인공지능(AI) 시대, AI를 얼마나 잘 활용하느냐가 경쟁력이 되는 요즘! 특히 Claude 4와 같은 고성능 AI 모델의 능력을 200% 끌어내기 위한 핵심 비법, 바로 '프롬프트 엔지니어링'입니다. 이 글에서는 Claude 4를 마치 내 손안의 똑똑한 비서처럼 활용하기 위한 모든 것을 쉽고 자세하게 알려드립니다. 제1장 배경: Claude 4와 대화하는 새로운 방법 인공지능(AI) 기술이 우리 생활 깊숙이 들어오면서, AI를 얼마나 잘 활용하는지가 중요해졌습니다. 마치 스마트폰의 기능을 제대로 알아야 편리하게 사용할 수 있듯이, AI 모델도 그 능력을 최대한 끌어내려면 효과적인 소통 방법이 필요합니다. 여기서 등장하는 것이 바로  프롬프트 엔지니어링 입니다. 프롬프트 엔지니어링이란 무엇일까요?  쉽게 말해, AI에게 우리가 원하는 것을 정확하고 명확하게 전달하여, AI가 똑똑하게 알아듣고 가장 유용한 결과물을 만들어내도록 하는 기술입니다. 마치 숙련된 요리사에게 "맛있는 파스타 만들어주세요"라고 하는 대신, "알리오 올리오 파스타를 만들어주세요. 마늘은 듬뿍 넣고, 페페론치노는 살짝만 넣어 약간 매콤하게, 면은 알덴테로 삶아주세요."라고 구체적으로 주문하는 것과 같습니다. 주문이 상세할수록 우리가 원하는 결과에 가까워지겠죠? 특히 Claude 4와 같은 최신 AI 모델은 이전 모델들보다 훨씬 더 지시를 잘 알아듣고 따릅니다. 그래서 우리가 얼마나 좋은 프롬프트(지시)를 주느냐에 따라 결과물의 수준이 크게 달라집니다. 프롬프트의 품질이 곧 AI 답변의 품질이 되는 셈입니다. Claude 4, 더 똑똑해진 AI 비서 Claude 4 모델(Opus 4, Sonnet 4 포함)은 복잡하고 미묘한 지시 사항도 곧잘 이해하고 수행하는 뛰어난 능력을 갖추고 있습니다. 이는 마치 경험 많은 전문 비서와 일하는 것과 같습니다. 이 비서는 우리가 하는 말을 허투루 듣...

[팁] Google Slide 프리젠테이션시 모든 한글폰트가 '굴림체' 로 바뀌는 현상을 해결한 크롬 확장 프로그램 소개

구글 문서도구인 구글 슬라이드를 이용하여 프리젠테이션을 많이 하는 분들을 위한 희소식 현재 구글 슬라이드에서는 슬라이드 편집시 사용한 고유 한글 폰트들은 프리젠테이션 모드로 전환할 경우는 모두 '굴림체' 로 바뀌어 표시가 되는 불편함이 있었습니다. 예). 슬라이드 편집에서 사용한 '궁서체' 한글 폰트는, 프리젠테이션 모드에서는 '굴림체'로 바뀌어 디스플레이됨 예). 슬라이드 편집 모드 - '궁서체' 폰트 사용 프리젠테이션 모드에서 '굴림체' 로 변경됨    따라서, 이러한 현상을 해결하는 크롬 확장 프로그램이 개발 되었습니다.  크롬 확장 프로그램 명 - ShowAsis 입니다. 크 롬 웹스토어 링크 -  https://goo.gl/PVPkZz 이 확장 프로그램을 사용하여 슬라이드 프리젠테이션을 하면, 편집 모드의 폰트 그대로 프리젠테이션시에도 그대로 한글 폰트로 디스플레이 됩니다. 단, 단점은 슬라이드가 애니메이션 슬라이드가 있는 경우는 애니메이션이 동작하지 않습니다. ----------------------- G Suite/Google Apps 전문 블로그 -  charlychoi.blogspot.kr 도서 '기업과 학교를 위한 구글크롬북'

Deep Research (심층 리서치)용 상세 프롬프트를 자동으로 생성하는 표준 메타 프롬프트 활용법 [팁]

  Deep Research용 상세 프롬프트를 자동으로 생성하는 표준 메타 프롬프트 활용법 생성형 AI를 활용하여 심도 있는 리서치 (Deep Research)를 수행할 때, 상세하고 구조화된 프롬프트를 작성하는 것은 매우 중요합니다. 하지만 매번 이러한 프롬프트를 처음부터 구성하는 것은 번거로울 수 있습니다. 이럴 때 '메타 프롬프트' 를 활용하면, 간단한 정보 입력만으로 AI가 스스로 최적의 Deep Research용 프롬프트를 생성하도록 유도할 수 있습니다. 이번 포스팅에서는 사용자가  'AI Deep Research 효율적 활용을 위한 프롬프트 명령어 표준 템플릿'  문서를  챗GPT, Claude, Gemini 에 업로드 후 Deep Research 명령을 위한 상세한 프롬프트를 생성하도록 지시하는  표준 메타 프롬프트 명령어 를 소개합니다.  이 명령어는  'AI Deep Research 효율적 활용을 위한 프롬프트 명령어 표준 템플릿'  문서를 기반으로 Deep Research 프롬프트 명령어를 생성하는 방법을 안내합니다. ⚙️ 표준 메타 프롬프트: Deep Research용 프롬프트 자동 생성 (명령어 방식) 우선 사용자는  AI Deep Research 효율적 활용을 위한 프롬프트 명령어 표준 템플릿'  문서를 생성형 ai에게 업로드 후 다음 절차에 따라 진행하면 됩니다.  아래는 AI에게 Deep Research용 프롬프트 생성을 요청하기 위한 표준 명령어 형식입니다. 사용자는 아래 '사용자 입력 정보'의  [ ]  대괄호로 표시된 부분을 자신의 연구 내용에 맞게 채워 넣어 생성형 AI에게 전달하면 됩니다. # Deep Research 프롬프트 생성 요청 사용자 입력 정보: * 연구 주제/대상: [여기에 연구 주제 또는 대상을 명확히 입력하세요] * 핵심 질문 (쉼표로 구분): [여기에 가장 궁금한 핵심 질문들을 쉼표로...