로컬 환경에서 LLM을 설치하고 vscode와 연동해 copilot 처럼 사용하는 방법입니다.
https://www.ollama.com/download
해당 사이트에 접속해서 ollama를 설치해주세요.
다 설치되면 위처럼 모델을 설치하라고 합니다.
https://github.com/ollama/ollama
모델은 여러개가 있으니 확인하시면 됩니다.
위처럼 설치되어있는 LLM 모델을 확인할 수 있습니다.
해당 extension을 설치하고
ollama run starcoder2:3b
위 모델을 설치해야합니다.
그러면 copilot처럼 사용 가능합니다.
참고로 기존에 copilot을 사용중이었다면 해당 extension을 disable해야합니다.
참고
https://www.youtube.com/watch?v=e9-z1GqG2_c
'기타' 카테고리의 다른 글
항해 플러스 1주차 회고 노트 (0) | 2024.06.22 |
---|---|
디비버 모든 데이터베이스가 보이지 않을 때 (0) | 2024.06.18 |
항해 플러스 백엔드 5기 [시작하는 마음] (1) | 2024.06.15 |
업무 중 질문 정리 (0) | 2024.05.17 |
node-wit 사용 후기 (1) | 2023.12.15 |