기타
copilot 무료로 사용하기
알면 알 수록 재밌다!
2024. 6. 16. 09:01
로컬 환경에서 LLM을 설치하고 vscode와 연동해 copilot 처럼 사용하는 방법입니다.
https://www.ollama.com/download
Download Ollama on macOS
Download Ollama on macOS
www.ollama.com
해당 사이트에 접속해서 ollama를 설치해주세요.
다 설치되면 위처럼 모델을 설치하라고 합니다.
https://github.com/ollama/ollama
GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.
Get up and running with Llama 3, Mistral, Gemma, and other large language models. - ollama/ollama
github.com
모델은 여러개가 있으니 확인하시면 됩니다.
위처럼 설치되어있는 LLM 모델을 확인할 수 있습니다.
해당 extension을 설치하고
ollama run starcoder2:3b
위 모델을 설치해야합니다.
그러면 copilot처럼 사용 가능합니다.
참고로 기존에 copilot을 사용중이었다면 해당 extension을 disable해야합니다.
참고
https://www.youtube.com/watch?v=e9-z1GqG2_c