


개인적으로 중요한 보안 이런건 없는데.. 나도 모르는 정보가 남에게 넘어가는 것 자체가 별로 반갑지도 않고.. 챗GPT를 사용하는 중에 한도에 걸리는 것도 싫고.. 그래서 로컬에 딥시크를 설치할려고 보니 테스트 하기도 좋고 다양한 모델을 사용해 볼 수 있는 LM Studio를 사용하기로 결정 하였습니다.
LM Studio 한글지원은 아직 Beta 버전이기는 하지만 쓸만합니다.
딥시크는 뭔가 추론을 열심히 하는거 같은데.. 한글 지원이 많이 아쉽더라구요.. 그래서 젬마3로..
아래는 LM Studio에서 gemma-3-12b-it를 이용해서 “LM Studio 설치하는법”으로 물어봐서 얻은 답변
gemma-3-12b-it
LM Studio를 설치하는 방법은 다음과 같습니다.
**1. LM Studio 다운로드:**
* [LM Studio 공식 웹사이트](https://lmstudio.ai/download/)에서 운영체제에 맞는 설치 파일을 다운로드합니다. (Windows, macOS, Linux)
**2. 설치 파일 실행:**
* 다운로드한 설치 파일을 실행하여 LM Studio를 설치합니다.
* **Windows:** 일반적인 Windows 설치 마법사를 따릅니다.
* **macOS:** `.dmg` 파일을 열고 응용 프로그램을 폴더에 드래그합니다.
* **Linux:** 다운로드한 패키지 파일(`.deb`, `.rpm`, `AppImage`)에 따라 적절한 명령어를 사용하여 설치합니다. (예: `sudo apt install ./lm-studio_*.deb`)
**3. LM Studio 실행:**
* 설치가 완료되면 응용 프로그램을 실행합니다.
**4. 모델 다운로드 (선택 사항):**
* LM Studio를 처음 실행하면 모델을 다운로드하라는 메시지가 표시될 수 있습니다.
* 원하는 모델을 검색하여 다운로드할 수 있습니다. Hugging Face Hub에서 제공되는 다양한 LLM(Large Language Model)을 사용할 수 있습니다.
* 모델 크기는 다양하며, 컴퓨터 사양에 맞는 모델을 선택해야 합니다. (RAM 용량 고려)
**5. LM Studio 사용:**
* 모델을 다운로드했거나 이미 있는 모델을 선택하면 채팅 인터페이스를 통해 LLM과 상호 작용할 수 있습니다.
* 다양한 설정 옵션을 조정하여 모델의 동작을 사용자 정의할 수 있습니다. (예: 온도, 최대 토큰 수)
**추가 정보:**
* **시스템 요구 사항:** LM Studio는 비교적 많은 시스템 리소스를 필요로 합니다. 최소 8GB RAM 이상을 권장하며, 더 큰 모델을 사용하려면 더 많은 RAM이 필요합니다.
* **GPU 가속:** GPU를 사용하여 추론 속도를 높일 수 있습니다. LM Studio는 CUDA 또는 Metal을 통해 GPU 가속을 지원합니다. (별도 설정 필요)
* **문제 해결:** 설치 중 문제가 발생하면 LM Studio 공식 웹사이트의 FAQ 또는 커뮤니티 포럼에서 도움을 받을 수 있습니다.
**참고:** 위 내용은 일반적인 설치 절차이며, 운영체제 및 환경에 따라 약간의 차이가 있을 수 있습니다. LM Studio 공식 문서를 참조하는 것이 가장 정확합니다.
답글 남기기
댓글을 달기 위해서는 로그인해야합니다.