Useful-LLM-Link
.png%3Ftable%3Dblock%26id%3D4ab84919-bfa4-47aa-bef2-18f3a702d38b%26cache%3Dv2&w=3840&q=75)
개인기록용 링크모음
- Used for Korean
LLM 모델
.png%3Ftable%3Dblock%26id%3Db0fff261-94d9-4deb-885c-5a6c5bb7b5bc%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
ChatGPT by OPENAI | |
Claude by anthropic | |
오픈소스 모델 챗봇 | |
오픈소스 모델 데모 | |
상업적 이용가능한 LLM | |
한국어 언어모델 사고력 벤치마크 |
프롬프트 엔지니어링 & 업무 효율화
.png%3Ftable%3Dblock%26id%3D55146627-ab5d-46f3-a4d4-a0c1fa0e5a6c%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
프롬프트 엔지니어링을 통한 업무 효율화 | |
프롬프트 엔지니어링 가이드 | |
프롬프트 엔지니어링 논문 | |
파인튜닝,프롬프트 튜닝,프롬프트 엔지니어링 차이 | |
Delimiter를 활용한 Prompt Formatting - 정확한 지시사항 전달의 핵심 |
Langchain & RAG(Retrieval-Augmented Generation)
.png%3Ftable%3Dblock%26id%3D107a5015-4558-4e9f-942c-21de424d1474%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
랭체인 한국어 튜토리얼 | |
RAG for LLMs 관련 논문 링크 | |
Vector DB로 ChatGPT 보정하기(feat. OpenAI) | |
LangChain이란? LangChain으로 강력한 LLM 서비스 구축하기 | |
Chroma - Vector database | |
빵형: 여러 문서에서 검색/질문/답변하는 QA 챗봇 만들기 | |
Chroma DB Tutorial: A Step-By-Step Guide | |
랭체인 공식 문서 | |
LangChain을 이용한 Linkendin 이력서 요약 / 질문하기 , QA | |
테디노트 - 랭체인(langchain) + 웹사이트 크롤링 - 웹사이트 문서 요약 | |
테디노트 - 랭체인(langchain) + 허깅페이스(HuggingFace) 모델 사용법 | |
파이썬 Chat GPT로 인사 평가 의견을 자동 요약하기 (엑셀 읽어서 요약) | |
Falcon7B + Chromadb - Hands On Guide <br> 랭체인 없이 크로마DB와 Falcon7B와 결합했고, 임베딩의 경우도 오픈소스 활용하여 구현 | |
llmware - RAG을 포함한 LLM 기반 어플리케이션 개발용 통합 프레임워크 | |
메타데이터 강화가 포함된 LangChain 문서만들기 | |
엔디비아 GEN AI 실습 예제 | |
RAG에 대하여 | |
LangChain으로 Multimodal과 RAG 활용하기 | |
프로덕션을 위한 고성능 RAG 응용 프로그램 구축 | |
LlamaParse를 사용한 고급 RAG | |
밑바닥부터 시작하는 RAG 예제 | |
카카오톡 RAG | |
한국어 순위 재정렬을 활용한 RAG 성능 올리기 | |
그래프 RAG |
llama 활용 개발 예제
.png%3Ftable%3Dblock%26id%3D4e64486f-b820-4646-92f0-ff90d8106a14%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
GPU에서 동작하는 Llama2 챗봇 구현 샘플 | |
Langchain으로 LLaMA2 cpp 버전 사용하기 | |
로컬 환경에 ollama로 Llama 2 실행 및 LangChain으로 애플리케이션 개발 |
LLM 비동기처리
.png%3Ftable%3Dblock%26id%3Dba89ccf9-7a58-40bd-8c1f-b753bd0a4cb4%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
Langchain을 이용한 비동기 호출에 대한 아주 간단한 샘플 | |
세마포어(Semaphore) / 비동기 링크 모음 / 요약 | |
socket, 큐, fastapi에서 BackgroundTasks의 Semaphore - 비동기 공유메모리 - pending 제어 대화 내용 |
cpu 또는 저사양 동작 가능한 llm 관련 참고 사이트
.png%3Ftable%3Dblock%26id%3Dc63260c4-1ae8-4af2-9e34-52da066b26e1%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
최대 24배 빠른 vLLM의 비밀 파헤치기 | |
Llama2 13B 이용 text-generation-webui | |
vLLM vs llama.cpp | |
저사양 서버로 LLM 실행 기술 - vLLM | |
QLoRA 4090 1개로도 lama2 7B 파인튜닝 가능?? | |
CPU에서llama2 cpp 설치 | |
오리온 모델 | |
맥북에어와 미니에서도 7B모델 파인튜닝 가능한 시대 ?? - Mistral-7B QLoRA |
책
.png%3Ftable%3Dblock%26id%3D442b9687-788a-4de0-b238-9cbb2d4312f6%26cache%3Dv2&w=3840&q=75)
제목 | 링크 |
딥러닝을 이용한 자연어처리 입문 | |
만들면서 배우는 생성AI | |
쉽고 빠르게 익히는 실전 LLM |
강좌
.png%3Ftable%3Dblock%26id%3Df5a02075-fae6-40e6-8236-9818ef81f03a%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
Upstage와 함께 하는 글로벌 OpenLLM 리더보드 1위 모델 리뷰 & LLM 모델 Fine-tuning | |
ChatGPT API를 활용한 챗봇 서비스 구축 with LangChain & Semantic Kernel | |
비용을 줄이는 LLM |
한국어 특화 LLM
.png%3Ftable%3Dblock%26id%3D98b76b22-5c2d-4e44-80f1-5233ec080034%26cache%3Dv2&w=3840&q=75)
내용 | 링크 |
kiqu-70b : Miqu-70B-Alpaca-DPO 모델을 기반으로 한국어 데이터셋을 사용하여 SFT+DPO 훈련을 진행하여 제작 | |
Synatra-Mixtral-8x7B | |
Bge-m3 한글 임베딩 | |
젬마 7B 한국어 모델 | |
투디지트 한글 LLM 파인튜닝 | |
Gemma 한국어 요약 모델 파인튜닝 |
- Pseudo-Lab/Korean_LLM_Benchmark_Test: GitHub: https://github.com/Pseudo-Lab/Korean_LLM_Benchmark_Test
- 오픈 코-LLM 리더보드: https://littlefoxdiary.tistory.com/124
- *Bge-m3 한글 임베딩 Config
논문:
- 한국어 LLM 성능 평가를 위한 벤치마크 구축: https://github.com/Pseudo-Lab/Korean_LLM_Benchmark_Test
- K-MMLU: 한국어 언어 이해 평가 벤치마크: https://www.sedaily.com/NewsView/29VSXCSWOD
- 한국어 LLM 모델 성능 비교 분석: https://www.youtube.com/watch?v=rQIG_B6XcUw
각 사이트 및 논문의 특징:
- Pseudo-Lab/Korean_LLM_Benchmark_Test: 한국어 LLM 모델들의 성능을 다양한 Task로 평가하는 벤치마크 테스트
- K-MMLU: 한국어 시험 데이터를 기반으로 만든 한국어 언어 이해 평가 벤치마크
- 오픈 코-LLM 리더보드: 누구나 한국어 LLM 모델을 등록하고 다른 모델과 성능을 비교할 수 있는 공개 플랫폼
- 한국어 LLM 성능 평가를 위한 벤치마크 구축: 한국어 LLM 모델 성능 평가를 위한 벤치마크 구축 방법을 제시하는 논문
- K-MMLU: 한국어 언어 이해 평가 벤치마크: K-MMLU 벤치마크의 설계 및 평가 결과를 소개하는 논문
- 한국어 LLM 모델 성능 비교 분석: 다양한 한국어 LLM 모델들의 성능을 비교 분석하는 논문