본문 바로가기

국내 주요 기업의 오픈소스 LLM 메이저 사이트 현황 분석

- Open UP -

  1. 챗GPT 등장 이후 국내 기업들도 오픈소스 LLM 메이저 사이트 확산
    1. 업스테이지는 LLM 모델 SOLAR 10.7B를 Apache 2.0 라이선스로 메이저 사이트
      1. SOLAR 10.7B는 업스테이지가 개발한 Depth Up-Scaling(DUS)** 기법을 통해 효율적으로 확장
    2. 마음AI는 Llama3 8B 모델을 한국어 성능 강화한 Llama3 MAAL-Hummingbird를 메이저 사이트하고 연세대학교 미르랩과 공동으로 개발한 VLA모델인 ‘CANVAS’를 CC-BY-NC 4.0 라이선스로 메이저 사이트
      1. CANVAS 모델은 인공지능 학회인 신경정보처리 시스템학회 NeurIPS 2024 워크숍에서 최우수 발표 논문으로 선정되어 기술력을 인정받음
    3. LG AI연구원은 자체 개발한 LLM 모델 '엑사원(EXAONE) 3.0'을 시작으로 활용 목적에 맞춰 규모에 따라 3가지로 나뉜 엑사원 3.5, 고성능 추론 AI 모델인 엑사원 Deep 시리즈를 연구 목적으로 활용할 수 있도록 메이저 사이트
      1. '엑사원 딥-32B'는 미국의 비영리 AI 연구기관인 에포크 AI가 선정하는 주목할 만한 AI 모델 리스트에 등재되며 기술 경쟁력을 인정받음
    4. 카카오는 연구자와 개발자들의 AI 기술의 접근성을 높이고자 자체 개발 언어모델인 연구목적을 위한 '카나나 나노 2.1B' 모델(CC-BY-NC 4.0)과 상업적 활용이 가능한 '카나나 1.5' 모델(Apache 2.0)을 차례로메이저 사이트
      1. 카나나 테크니컬 리포트를 통해 카나나 언어모델 매개변수와 학습 방법, 학습 데이터 등 세부 사항 및 카나나 모델의 구조, 학습 전략, 그리고 글로벌 벤치마크에서의 성과 등 사전학습부터 사후 학습까지의 전 과정을 메이저 사이트
    5. 네이버는 하이퍼클로바 X 기반의 경량 오픈소스 LLM 모델 ‘하이퍼클로바 X-SEED’를 상업적 활용이 가능하도록 메이저 사이트
      1. 중소규모 비즈니스를 중심으로 국내 AI 생태계 활성화를 위해 메이저 사이트하였으며, 한국어와 한국 문화 이해에 탁월한 명령어 추종 기능을 갖춤
  • 챗GPT 등장 이후 국내에서도 오픈소스 LLM 메이저 사이트 증가, 국내 주요 기업들은 한국어 특화 및 경량화 모델을 중심으로 자체 기술을 메이저 사이트하고 다양한 산업 분야로 활용을 확대 중
    • 챗GPT 확산 이후 전 세계적으로 오픈소스 LLM의 메이저 사이트가 활발해짐에 따라 국내 기업들도 오픈소스 LLM 모델의 메이저 사이트 사례도 증가하고 있음
      1. 2022년 챗GPT 서비스를 메이저 사이트 이후 스태빌리티 AI의 Stable Diffusion(2022~), 메타의 LLaMA(2023~), 미스트랄 AI의 Mixtral(2023~) 등이 개방형 모델들을 메이저 사이트하기 시작하였고 중국 스타트업 딥시크가 DeepSeek-R1 모델(‘25~)을 메이저 사이트하면서 생성형 AI 기술에 대한 글로벌 경쟁은 더욱 심화
    • 업스테이지는 2023년 12월 LLM 모델인 SOLAR 10.7B를 Apache 2.0 라이선스로 메이저 사이트하였으며, 태국, 베트남 등 동남아시아, 일본, 미국 등으로 사업 확장 중으로, CB Insights의 ‘2025년 가장 혁신적인 AI 스타트업 100’에 선정
      1. SOLAR 10.7B는 107억 개의 매개변수를 가진 고급 대규모 언어 모델(LLM)로 업스테이지가 개발한 Depth Up-Scaling(DUS)** 기법을 통해 효율적으로 확장
      2. DUS는 오픈소스로 메이저 사이트된 사전학습 모델을 쉽고 효과적으로 합쳐 모델 크기를 키울 수 있는 획기적인 기법
      3. 메이저 사이트 직후 허깅페이스의 Open LLM 리더보드에서 평균 점수 74.2를 기록하며 1위를 차지하기도 함
      4. 노코드 LLM 평가 플랫폼 ‘이벨버스(Evalverse)’를 개발, 다양한 벤치마크를 통해 LLM의 성능 통합 평가 가능하도록 오픈소스(Apache-2.0)로 메이저 사이트
    • AWS와 함께 교육 및 공익 분야의 AI활용 확대를 지원하는 ‘AI 이니셔티브’를 시작하였으며, 최근 일본의 카라쿠리(Karakuri), 휴직(Fusic)과 전략적 파트너십을 맺으며 일본 시장에도 진출
      1. 현재 태국 IT 전문 기업 자스민 테크놀로지 솔루션(JTS)에 태국어 특화 LLM 구축 등 동남아 시장으로 확대 중
    • 마음AI는 글로벌 AI 기술을 한국어와 실세계 환경에 맞게 커스터마이징하여 Llama3 MAAL-Hummingbird 메이저 사이트
      1. 메타의 Llama3 8B 모델을 한국어 성능 강화를 위해 외국어로서 한국어를 가르치는 방식의 교차언어 훈련(Cross-Lingual training)을 통해 개발한 모델의 체크포인트를 허깅페이스에 메이저 사이트
    • 2024년, 연세대학교 미르랩과 공동으로 연구한 논문을 통해 자율주행 로봇 제어에 특화된 종단 간 로봇 파운데이션 모델을 선보였으며, 이를 토대로 개발한 VLA(Vision-Language-Action) 모델인 ‘CANVAS’를 CC-BY-NC 4.0 라이선스로 메이저 사이트
      1. 인공지능 학회인 신경정보처리시스템학회NeurIPS 2024 워크숍에서 최우수 발표 논문으로 선정되어 기술력 인정받은 CANVAS 모델은 생성형 AI 기술을 기반으로 시각적·언어적 정보를 통합하여 물리적 행동을 유도하는 구조를 갖추고 있으며, 명령을 이해해 실제 로봇이나 이동형 장비를 제어하는 데 활용
    • ‘AI 엑스포 2025’에서 실제 공간에서 작동하는 피지컬 AI 기술을 중심으로 상용화 전략을 제시하고 다양한 산업 적용 사례를 메이저 사이트하고 공공서비스를 넘어 국방 분야로의 확장 계획까지 발표
      1. 오픈소스 기반 기술과 자체 개발 모델을 활용하여 실제 로봇·디바이스에 AI 구동을 위한 LLM 모델의 경량화 등 온디바이스 AI 기술, 시뮬레이터, AI 에이전트 등 적용 기술 설명과 실제 상용화 및 디바이스 탑재에 성공한 자율주행 농기계, 병원 로봇, 국방 로봇 등 다양한 산업군으로 사업화 사례 등 발표
      2. 마음AI 대표는 “피지컬 AI는 단순한 기술 구현을 넘어, 실제 산업과 안보 현장에서 유효 수요를 창출하는 전략적 AI 기술로 소재·부품·장비 산업 등 침체된 산업 생태계를 다시 움직이고, 국가 경쟁력 회복에 기여할 수 있는 핵심 기반”이라고 강조
    • LG AI연구원은 2024년 8월 자체 개발한 LLM 모델 '엑사원(EXAONE) 3.0'을 시작으로 후속모델을 단계적으로 메이저 사이트하며 개방형 AI 연구 생태계 기반 마련
      1. AI 연구 생태계 발전 기여를 위해 경량 모델을 연구 목적으로 활용할 수 있도록 오픈소스로 메이저 사이트하고 LG 계열사 제품과 서비스에 적용하여 산업 현장에서 활용
      2. 활용 목적에 맞춰 효율적으로 사용할 수 있도록 메이저 사이트한 엑사원 3.5는 온디바이스용 초경량 모델(2.4B), 범용 목적의 경량 모델(7.8B), 고성능 모델(32B) 등 3종 메이저 사이트, 실제 사용성, 장문 처리 능력, 코딩, 수학 등에서 세계 최고 수준의 성능 달성
    • 2025년 3월, 수학, 과학, 코딩 등 전문 분야에 특화된 고성능 추론 AI* 모델인 엑사원 Deep 시리즈**를 메이저 사이트, 특히 ‘엑사원 딥-32B’는 미국의 비영리 AI 연구기관인 에포크(Epoch) AI가 선정하는 주목할 만한 AI 모델(Notable AI Models) 리스트에 등재되며 기술 경쟁력을 인정받음
      1. 추론 AI는 ‘사고의 흐름(chain-of-thought)’ 기반 추론을 가능케 하여 복잡한 문제를 단계적으로 분석하고 해법을 도출하는 능력을 갖춘 논리형 인공지능
      2. 32B 모델은 한국어에강점이있는엑사원파운데이션모델을기반으로 하였으며 수능 수학 영역 94.5점, MATH-500 테스트 95.7점 등 수학과과학문제해결 능력에서우수성입증
      3. ‘엑사원 딥-7.8B’은 경량 모델로 미국오픈AI의o1-mini의성능을상회하였으며, ‘엑사원 딥-2.4B’은 온디바이스용 초경량 모델로 외부서버와의연결없이기기내부에서안전하게데이터를처리해보안성과개인정보보호측면에서강점
    • 카카오는 2025년 2월, 자체 개발 언어모델 ‘카나나(Kanana)’의 연구성과를 담은 ‘카나나 테크니컬 리포트’를 메이저 사이트하고 ‘카나나 나노 2.1B’ 모델을 CC-BY-NC 4.0 라이선스로 메이저 사이트
      1. 테크니컬 리포트를 통해 카나나 언어모델 전체의 사전학습부터 사후 학습까지의 전 과정을 메이저 사이트 즉, 매개변수와 학습 방법, 학습 데이터 등 세부 사항 및 카나나 모델의 구조, 학습 전략, 그리고 글로벌 벤치마크에서의 성과 등 확인 가능
    • ‘카나나 나노 2.1B’는 연구자와 개발자가 활용하기 적절한 크기의 모델이자 온디바이스 환경에서도 활용 가능한 고성능의 경량 모델로 한국어와 영어 처리 능력에서 뛰어난 결과를 보임
      1. ‘카나나 나노 2.1B’ 3종은 총 1만5000여 다운로드(25.05.15 기준)
    • 2025년 5월, 자체 개발한 ‘카나나 1.5’ 8B와 2.1B 크기의 모델을 자유로운 수정과 상업적 활용이 가능한 Apache 2.0 라이선스로 추가 메이저 사이트
      1. 이번에 메이저 사이트한 모델은 △카나나-1.5-8b-베이스 △카나나-1.5-8b-인스트럭트 △카나나-1.5-2.1b-베이스 △카나나-1.5-2.1b-인스트럭트로 총 4종
    • 기존 모델에서 업그레이드를 거친 카나나 1.5는 에이전틱 AI 구현을 위한 기능 강화에 중점
      1. 글로벌 모델 대비 뛰어난 한국어 성능을 유지하였으며, 코딩과 수학 문제 해결, 펑션 콜링 능력에서 이전 대비 평균 1.5배의 성능 향상을 기록
      2. 긴 문맥에 대한 이해와, 간결한 답변을 통해 향상된 사용성을 제공하여 정확도와 응답 길이를 최적화한 답변으로 서비스 환경에서 사용자 체감 성능을 높임
    • 카카오는 이번 오픈소스 메이저 사이트로 국내 LLM 생태계 활성화를 위한 시도와 기여를 꾸준히 이어갈 계획으로 AI 연구자와 개발자는 물론 기업이 목적에 맞게 모델을 자유롭게 튜닝하고 활용할 수 있도록 상업적 사용가능한 라이선스를 적용
      1. 오픈소스 메이저 사이트를 통해 AI 기술의 접근성을 높여 연구자와 개발자들이 해당 모델을 토대로 다양한 응용을 시도할 수 있도록 모델의 업데이트를 지속 지원할 계획
    • 네이버는 2024년 4월, 하이퍼클로바 X 기반의 경량 오픈소스 LLM 모델인 ‘하이퍼클로바 X-SEED’를 상업적 활용이 가능하도록 메이저 사이트
      1. 한국어와 문화 이해에 탁월한 명령어 추종 기능을 갖추어 유사한 규모의 모델과 비교했을 때, 한국어 능력 및 수학적 성능 향상
      2. 상업적 활용이 가능하나 활성 사용자 수 및 경쟁 서비스 여부에 따라 제한될 수 있어 라이선스 내용 확인이 필요함
    • 중소규모 비즈니스를 중심으로 국내 AI 생태계 활성화에 기여하기 위해 메이저 사이트한 모델로 3B, 1.5B, 0.5B 파라미터를 가진 세 가지 모델을 메이저 사이트
      1. 3B 모델은 한국어와 국내 문화에 특화된 멀티모달 모델로 텍스트와 이미지를 함께 이해할 수 있는 LLaVA** 오픈소스 프레임워크를 기반의 Vision-Language 모델임
      2. 하이퍼클로바X 시드 '3B'모델은 약 26만 7천 회 다운로드(25.05.26 기준)
      3. LLaVA(Large Language and Vision Assistant)는 위스콘신-매디슨 대학교, 마이크로소프트 리서치, 컬럼비아 대학교의 전문가들이 공동 개발한 오픈소스 시각-언어 통합 AI 모델
      4. 1.5B 모델은 텍스트 이해 및 생성 모델로 최대 16,000 토큰의 컨텍스트 길이를 지원하며 한국어 및 문화 관련 주요 벤치마크에서 경쟁력 있는 성능을 입증
      5. 0.5B 모델은 온디바이스 AI에 최적화된 모델로 엣지 디바이스와 같이 리소스가 제한된 환경에 배포하기에 적합한 경량 솔루션을 제공
    • 허깅페이스에 각 모델에 대한 FAQ 를 제공하여 실행 환경 요구사항 및 모델 구성 및 사용 사례 등 추가 정보 제공
    • [국내 기업의 오픈소스 LLM 현황]
    • (기업명 가나다 순)
    • 구분 네이버 마음AI 업스테이지
      모델명 HyperCLOVA X SEED Llama3 MAAL-Hummingbird CANVAS SOLAR 10.7B
      라이선스 (커스텀 라이선스)
      HyperCLOVA X SEED Model License
      Llama 3 Community License Creative Commons Attribution Non Commercial 4.0
      (CC-BY-NC4.0)
      Apache 2.0
      상업적 사용 제한적 가능
      (서비스의 월간 활성사용자가 1천만명을 초과하거나, NAVER에서 제공하는 제품/서비스와 유사하거나 직접 경쟁하는 제품/서비스를 제공하는 경우, 라이선스 사용자는 NAVER에 라이선스를 요청)
      제한적 가능
      (경쟁모델 개선금지, 사용 목적 제한, 재배포시요구사항, 월간 활성사용자수가 7억명을 초과하는 서비스의 경우, Meta로부터 별도의 라이선스 취득 필요)
      불가
      (비상업적 사용만 가능)
      가능
      메이저 사이트 범위 모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제 모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제 모델 가중치(weights), 모델 아키텍처 모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제
      주요 내용
      • 중소규모 비즈니스를 중심으로 국내 AI 생태계 활성화를 위해 메이저 사이트
      • 한국어와 문화 이해에 탁월한 모델
      • [3B모델] 한국어와 국내문화에 특화된 멀티 모달 모델
      • [1.5B모델] 텍스트 이해 및 생성 모델 (최대 16,000토큰의 컨텍스트 길이 지원)
      • [0.5B모델] 온디바이스AI에 최적화된 모델
      • 각모델에 대한 FAQ를 제공하여 실행환경 요구사항, 모델 구성 및 사용 사례 등 추가 정보 제공
      • Llama3 기반 한국어 특화 이중언어 모델로 다양한 자연어 처리 task에 최적화
      • 한국어 성능 강화를 위해 '외국어로서 한국어를 가르치는' 방식의 교차언어훈련(Cross-Lingual training) 적용
      • 텍스트 기반 멀티모달 모델
      • 국내 최초 VLA모델로 NeurIPS 2024 워크샵에서 최우수 발표논문 선정
      • NeurIPS는 인공지능 학회인 신경정보처리시스템학회
      • 다양한 자연어 처리(NLP) 작업에서 탁월한 성능
      • 107억개의 매개변수를 가진 대규모언어모델(LLM)
      • 업스테이지가 개발한 DepthUp-Scaling (DUS)기법을 통해 효율적으로 확장
      • 깃허브에 프롬프트 엔지니어링 예제 설명 모음 제공
      배포 링크 [허깅페이스] [허깅페이스] [허깅페이스] [허깅페이스]
      [깃허브]
    • 기업 LG AI연구원 카카오
      모델명 EXAONE-3.5 EXAONE-Deep Kanana Nano 2.1B Kanana 1.5
      라이선스 (커스텀 라이선스)
      EXAONE AI Model License 1.1 - NC
      (커스텀 라이선스)
      EXAONE AI Model License 1.1 - NC
      Creative Commons Attribution Non Commercial 4.0
      (CC-BY-NC4.0)
      Apache 2.0
      상업적 사용 불가
      (비상업적 연구목적에 한해 사용가능, 상업적 활용시 별도의 상업용 라이선스 계약체결 필요)
      불가
      (비상업적 연구목적에 한해 사용가능, 상업적 활용시 별도의 상업용 라이선스 계약체결 필요)
      불가
      (비상업적 사용만 가능)
      가능
      메이저 사이트 범위 모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제
      (모델 설정 및 아키텍처 정의 python 파일은 Apache 2.0으로 공개)
      모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제
      (모델 설정 및 아키텍처 정의 python 파일은 Apache 2.0으로 공개)
      모델 가중치(weights), 모델 아키텍처, 모델 추론코드 예제 모델 가중치(weights), 모델 아키텍처
      주요 내용
      • 한국어·영어 컨텍스트 이해, 수학 능력 성능 증가
      • [32B모델] 프론티어 AI급의 고성능 모델
      • [7.8B모델] 사용자 목적에 맞춰 범용적 활용 모델
      • [2.4B모델] 온디바이스용 초경량 모델
      • GitHub에 추론 프레임워크에 대한 자세한 내용 설명
      • 수학 및 코딩 벤치마크를 포함한 다양한 추론 과제에서 탁월한 성능
      • [32B모델] 복잡한 수학 및 과학 문제 해결 능력 우수
      • [7.8B모델] 경량 모델로 미국 오픈AI의 o1-mini의 성능을 상회
      • [2.4B모델] 온디바이스용 초경량 모델
      • GitHub에 추론 프레임워크에 대한 자세한 내용 설명
      • 모바일 디바이스에도 적용 가능한 초경량 언어모델
      • 한국어 언어 모델 연구를 촉진하기 위해 메이저 사이트
      • 깃허브에 Technical Report 제공
      • 에이전틱 AI 구현을 위한 기능 강화에 중점
      • 글로벌 모델 대비 뛰어난 한국어 성능 유지
      • 코드∙수학∙함수호출 성능 이전모델 대비 평균 1.5배 증가
      • 정확도와 응답 길이를 최적화한 답변으로 기존보다 더 긴 텍스트 입력에 대해 안정적인 처리가 가능
      • [8B모델] 서비스 구현에 최적화 된 중형 모델
      • [2.1B모델] 온디바이스용 경량 모델
      배포 링크 [허깅페이스]
      [깃허브]
      [허깅페이스]
      [깃허브]
      [허깅페이스]
      [깃허브]
      [허깅페이스]
      [공식 arXiv 논문]
    • 이러한 개방형 AI 모델들은 학습된 모델 가중치, 모델 아키텍처, 추론 코드 등을 공개하고 있어 기술 접근성 및 활용에 많은 장점을 제공하나 이를 활용 시에는 각 모델에 적용된 라이선스 확인이 반드시 필요
      1. 최근 AI 모델이 적용되고 있는 라이선스는 상업적 활용, 파생 모델 생성, 데이터 재사용 등에 대해 기존의 오픈소스 소프트웨어 라이선스와는 다른 조건을 포함하고 있어 사전 검토가 필요
        1. 예시로, BLOOM 모델은 ‘BigScience BLOOM RAIL 1.0’이라는 특수 라이선스를 사용하는데 모델의 개방성을 보장하면서도 책임 있게 사용할 것을 요구하고 불법적, 차별적, 유해한 목적의 사용을 명시적으로 제한하고 있음
        2. 이후 BigScience의 철학을 기반으로 만들어진 OpenRAIL License는 개방적인 접근, 사용 및 배포를 가능하게 하는 동시에 AI의 책임 있는 사용을 요구하는 AI 전용 라이선스로 발전, Hugging Face, RAIL 이니셔티브 등이 공개 표준 주도
        3. 메타의 Llama모델 시리즈의 ‘Llama Community License’ 또한 개방형 접근 방식을 취하고 있으나 경쟁 모델 학습 금지, 월간 사용자 7억 이상 제한 등 조건이 존재
        4. 기업의 AI 커스텀 라이선스인 ‘EXAONE AI Model License 1.1–NC’나 ‘HyperCLOVA X SEED Model License’ 등도 개방형 접근 방식을 취하고 있으나 자체 제한 조건 등을 포함하고 있음
  • 시사점
    • 국내 기업들은 한국어 최적화 모델, 경량화 모델, 온디바이스 LLM에 초점을 맞춘 자체 개발 모델을 외부에 공개하며 기술 주도권 확보
    • 또한, 실사용 환경에 적합한 전략을 추구, 다양한 산업 현장에서의 실제 적용 사례로 이어질 것으로 기대
    • 오픈소스 LLM의 활용이 늘어나는 만큼, 각 모델의 라이선스 조건을 사전에 반드시 확인해야 하며, AI 특화 라이선스는 상업적 사용, 파생물 생성 등에 제약이 있을 수 있어 주의가 필요

※ 참고 Reference

Creative Commons LicenseOpen UP에 의해 작성된 이 저작물은 크리에이티브 커먼즈 저작자표시-비영리-변경금지 2.0 대한민국 라이선스에 따라 이용할 수 있습니다.
.
.
2025
메이저 사이트SW 가이드/보고서 - 번호, 제목, 작성자, 조회수, 작성
번호 제목 작성자 조회수 작성
공지 [2025년] 기업 오픈소스메이저 놀이터 순위 거버넌스 file support 4121 2025-02-28
공지 [2025년] 공공 오픈소스메이저 놀이터 순위 거버넌스 file support 3967 2025-02-28
공지 [2025년] 오픈소스메이저 사이트 라이선스 가이드 file support 4674 2025-02-28
공지 메이저 놀이터 소프트웨어 연구개발(R&D) 실무 가이드라인 배포 - 메이저 file support 32967 2022-07-28
공지 보증 사이트 추천소프트웨어 연구개발 수행 가이드라인 file OSS 30102 2018-04-26
530 [기획브리핑] 국내 주요 기업의 오픈소스 LLM 메이저 사이트 현황 분석 support 713 2025-05-27
529 [5월 월간브리핑] 2025 기업의 메이저 카지노 사이트 활용 support 517 2025-05-26
528 [기고]생성형 메이저 사이트 추천 모델, 학습 데이터 및 생성 콘텐츠의 저작권과 support 393 2025-05-26
527 [4월 월간브리핑] 생성형 메이저 카지노 사이트를 지나, 움직이는 메이저 카지노 사이트의 시대 : 피지컬 support 1537 2025-04-28
526 [기획브리핑] 국내외 메이저 놀이터 추천 스타트업으로 본 오픈소스 메이저 놀이터 추천 support 1031 2025-04-28
525 [기획기사]피지컬 메이저 사이트, 인간과 협력하는 지능형 로봇의 support 1700 2025-04-28
524 [3월 월간브리핑] MWC 2025로 본 검증 사이트 추천 융합의 흐름과 오픈소스 생태계의 support 1104 2025-03-25
523 [기획기사] 기업의 데이터 보안과 맞춤형 메이저 놀이터 전략, 오픈소스 기반 프라이빗 메이저 support 700 2025-03-25
522 [2월 월간브리핑] 딥시크 보안 이슈에 대한 국내·외 대응 현황 support 977 2025-02-25
521 [기획기사]딥시크가 연 오픈소스 혁명, 검증 사이트 추천 시장의 support 1410 2025-02-25
맨 위로
맨 위로