뜬겁 없는 개발 이야기 3 개발용 에이전트와 나만의 LLM
안녕하세요 가야태자 @talkit 입니다.
그제는 열심히 에이전트를 만들었습니다.
그래서 결국에는 내가 생각하는 큰 그림의 조그만 부분을 성공 했습니다.
어제 올린 블로그 포스트 @dorian-lee 님의 워드 클라우드를 에이전트가 직접 만들어서 실행 한겁니다.
아직 블로그에 글까지 쓰지는 않고 이미지 까지는 만들어 줬습니다.
현재 사용하고 있는 장비는 다음과 같습니다.
MacBookPro M4 / 12Core CPU 16Core GPU 12Core NPU / 48GB RAM
음 요건 개발과 실행을 전부 하고 있는데
앞으로는 맥미니 같은 PC형 장비를 두고 싶은 욕심이 생깁니다.
그런데 저는 장비 욕심히 많아서 ㅠ.ㅠ
기본 16GB 램과 M4 칩에 만족을 못할겁니다. ㅎㅎㅎ
최소 64GB RAM에 M4 Pro정도는 되줘야 ^^
이건 앞으로의 일이고,
여튼 내가 원하는 프로그램을 조금 만들기 시작 했다가 주안점입니다.
현재 모델은 QWEN2.5-Coder:4b DeepSeek-Coder:16b 를 사용합니다.
간단한 문제는 4b모델이 해결 하고4b가 오류를 내면 16b모델이 담당하고 그것도 오류가 나면
Gemma3:27b 모델에서 돌리도록 했씁니다.
앞에 두모델은 코더로 코딩 전문 모델인데
사용해보니 모델이 느리긴 하지만, Gemma3:27b모델이 좀 더 잘 알아 듣는 것 같습니다.
해결도 잘하구요.
우선 제가 만든 에이전트는 파이썬을 주로 개발하게 되어 있고,
파이썬 파일을 만들고, 해당 파일을 실행합니다.
실행하다가 오류나면, 오류를 해결 합니다.
주로 패키지가 없다여서 패키지를 설치할 권한을 줬습니다.
그랬더니 비교적, 잘 동작 합니다.
그리고, 모델의 기억을 사용하기위해서 Qdrant라는 벡터 서버를 사용합니다.
저건 전혀 모르던건데 제미나이와 친하게 지내면서 저걸 사용하라고 추천 해줬습니다.
그리고, 또 한가지를 오늘 했습니다.
https://talkit.tistory.com 에 관리자 로 로그인 했습니다.
제 블로그라서 가능 합니다. ㅎㅎㅎ
백업 파일을 생성했습니다.
해당 백업 파일을 이용해서 Qdrant에 질문/응답 식으로 처음에
벡터화를 진행 했습니다.
nomic-embed-text
위 모델을 이용해서 청킹하고 벡터라이징을 했습니다.
지난 번에 gemma3:27b를 이용해서 블로그 글을 보강 했는데
그작업이 너무 오래 걸려서
gemma3:4b
오늘은 위 모델을 사용했습니다.
2시간 만에 750개의 게시물이 벡터화되었고,
LLM 툴을 돌려서 물어보니 전부 답변으 gemma가 합니다. ㅎㅎㅎ
그래서 자리수나 한글 처리에 문제가 있다고 생각해서
다른 모델을 찾았습니다.
결론 부터 말씀 드리면 그래도 괜찮은 모델을 찾았습니다.
그리고, 새로운 방식으로 벡터화 했을때
LLM이 RAG만 동작하고, 내용은 제 벡터 데이터베이스에서 가져오는 것을 확인 했습니다.
단 제가 블로그에 작성하지 않은 질문을 하면 물론 올라마에 탑재 되어 있는 모델이 답변을 합니다.
여기까지가 오늘 해본 내용입니다.
내일은 살짝 내일 글도 봐주시라고 ㅎㅎㅎ
최적화되면 모델을 이야기 안드렸는데
내일 또는 다음 글에서 새로운 모델로 어떻게 구현 했는지 적어 보겠습니다.
감사합니다.
지금 제가 가야태자는 유럽 여행을 어디어디 다녀왔나로 질문을 했습니다. ^^
[2026-02-09 01:04:05] --- [디버깅: 검색 결과 (2.48초)] ---
【 AI 답변 】 (소요 시간: 17.37초)
제공된 정보에 따르면 가야태자는 다음과 같은 곳들을 여행한 것으로 보입니다:
파리, 프랑스:
- 에펠탑, 샤이오 궁, 센강 유람선 등을 방문했습니다.
- 디즈니랜드 파리도 방문했습니다.
- 구포역에서 광명역으로 KTX를 타고 파리로 이동한 기록이 있습니다.
스위스:
- 스위스 제네바 근처의 루체른을 방문했습니다.
- 루체른에서 카펠교와 주변 풍경을 감상했습니다.
- 스위스로 이동한 후에는 독일어와 프랑스어가 사용되는 지역을 경험했습니다.
독일:
- 독일 뒤셀도르프에서 머물기도 했으며, 프랑크프루트 메인 반호프 역을 통해 이동했습니다.
러시아:
- 러시아를 방문했으며, 특히 모스크바 지역의 경우 마트료시카 인형과 같은 문화 유산을 관찰했습니다.
이 외에도 여러 유럽 국가들을 경유하며 20일 정도의 유럽 여행을 즐겼다고 언급되어 있습니다. 하지만 구체적인 모든 방문지와 일정에 대해서는 자세한 내용이 일부만 공개되어 있습니다.
【 참고한 블로그 자료 】
- 가야태자 일상으로의 복귀 (2018-01-03 09:00:00)
🔗 원문 링크: https://talkit.tistory.com/481 - 가야태자네 가족 파리에 입성하다. 에펠탑 (2017-09-17 08:00:00)
🔗 원문 링크: https://talkit.tistory.com/444 - 새해 복 많이 받으세요. (2023-01-01 10:52:23)
🔗 원문 링크: https://talkit.tistory.com/698 - 가야태자네 가족 스위스/Swiss 루체른/Luzern에 입성하다. (2018-01-04 08:30:00)
🔗 원문 링크: https://talkit.tistory.com/484 - 가야태자네 가족 파리 디즈니랜드를 다녀오다.(1) 디즈니랜드 파크 (2017-09-15 08:00:00)
🔗 원문 링크: https://talkit.tistory.com/442 - 블로그 방문자가 40만명을 넘었네요 ^^;; (2017-09-26 22:24:57)
🔗 원문 링크: https://talkit.tistory.com/445 - [2017/01] 2017년 가야태자의 아이티 이야기 결산 (2017-02-01 22:49:51)
🔗 원문 링크: https://talkit.tistory.com/371 - 2017 가야태자의 IT 이야기 결산 - 비트코인이 날자 내 블로그도 날았다. (2018-01-06 08:30:00)
🔗 원문 링크: https://talkit.tistory.com/489
정확하게 답변을 줬구요.
맨 마지막글은 왜 들어가있는지 모르겠습니다. ㅎㅎㅎ
역쉬 고수님..moonwalkfitness
와 같은 걷기게임 만들어줘용..
0.00 SBD,
2.13 STEEM,
2.13 SP
[booming-kr-auto]
보팅 완료했습니다 🙌
저도 게임을 만들어 보고 싶은데
많은 기획과 자원이 들어가다 보니 조금씩 아이디어를 생각하고 한번 만들어 보겠습니다.
감사합니다.
넘 대단하십니다.
0.00 SBD,
0.57 STEEM,
0.57 SP
[booming-kr-auto]
보팅 완료했습니다 🙌
제미나이가 미워 할 수도 있지만,
제미나이를 이용해서 저만의 인공지능을 만들고 있습니다. ㅎㅎㅎ
그래도 저만의 인공지능보다 역시 제미나이가 답변을 잘해 줍니다.
하지만, 앞으로는 꼭 그러라는 법은 ^^
구포역에서 광명역으로 KTX를 타고 파리로 이동한 기록이 있습니다.
이건 LLM의 환각이네요 ㅎㅎㅎ 제 글중에 구포역에서 광명으로 간 글도 있고 ^^
광명역에서 출발해서 파리까지 가는 기차가 생길거라는 글이 있는데 해당글을 참조한 것 같습니다.
ㅠ.ㅠ
Upvoted! Thank you for supporting witness @jswit.
와~ 외부로의 개인 데이터 유출을 걱정하지 않아도 되는 가야태자님만의 LLM을 만드신 것 같네요!
가야태자님의 게시물을 학습했기 때문에, 가야태자님에 대해서는 더욱 더 잘 알고 대답할 수 있는 전담(?) 개인비서를 채용하심을 미리 축하드립니다~ ^^
감사합니다. 저만의 비서를 채용해서
앞으로 좀 더 편안한 세상을 만들어 보려고 합니다.
기회가 되면 에이전트도 진짜로, 크로드 코드나, 오픈 코드 같이 키워 볼 생각입니다.