윈도우용 Ollama 설치 가이드
로컬에서 LLM을 구동해 보자!속 편하게 LLM을 이용하는 방법은 chatGPT 등의 상용 채팅 프로그램들을 이용하는 것입니다.하지만 폐쇠망이나, 보안의 대한 우려, API를 이용 시 발생하는 비용 등의 이유 때문에 로컬에서 사용해야 되는 경우가 발생할 수 있습니다. 윈도우용 ollama 설치 개인이 ollama 사용 시 가성비로 가장 좋은 방법은 맥실리콘 기기를 이용하여 vram에 모델들을 구동하는 방법이 가장 저렴하고 그다음으론 엔디비아의 그래픽카드를 이용하여 구동하는 방법이 있습니다.속도의 측면에서는 엔디비아가 유리하기에 속도가 중요하다면 엔디비아를 추천합니다.필자는 중고차 가격을 태워서..... ollama에도 프리뷰이지만 윈도우를 지원하기 시작하여 윈도우 위주로 설명하려 합니다.ollama...