
안녕하세요! 오늘은 요즘 AI 업계에서 핫한 LG의 국산 추론형 AI, 엑사원딥(EXAONE Deep)을 직접 설치하고 실습해본 경험을 공유합니다. 한글에 강하고, 수학·코딩 문제도 척척 푸는 이 모델을 내 PC에서 돌리는 방법부터, 실제 활용 예시까지 알차게 담아봤어요. 여러분도 따라 해보세요!
엑사원딥(EXAONE Deep)이란? 🤔
LG AI연구원이 공개한 국내 최초의 추론 특화 AI 모델이에요. 단순한 텍스트 생성이 아니라, 가설을 세우고 논리적으로 추론해서 답을 도출하는 능력이 탁월합니다. 수능 수학 94.5점, MATH-500 95.7점 등 수학·코딩 분야에서 특히 강점이 있죠!
모델 크기는 3가지:
- 2.4B: 가볍고 빠른 소형
- 7.8B: 성능과 효율의 밸런스
- 32B: 최고 성능의 대형
설치 방법 1: Ollama로 간편하게! 🛠️
1단계: Ollama 설치
터미널에 아래 명령어 입력!
brew install ollama
설치가 끝나면, ollama 명령어가 잘 작동하는지 확인하세요.
2단계: 엑사원딥 모델 다운로드
ollama pull exaone-deep
몇 분 기다리면 모델 파일이 내려와요.
3단계: 모델 실행
ollama run exaone-deep
프롬프트가 뜨면 바로 질문을 입력할 수 있습니다.
예시 실습
Solve 2x + 3 = 7
답: x = 2
이렇게 수학 문제도 바로 풀어줍니다!
설치 방법 2: LM Studio로 GUI 환경에서! 🖥️
1. LM Studio 실행 → 왼쪽 메뉴에서 Discover 클릭
2. 'exaone-deep' 검색 후 원하는 버전(2.4B, 7.8B, 32B) 선택
3. 'Use in New Chat' 또는 다운로드 버튼 클릭
4. 다운로드 완료 후, 톱니바퀴(설정)에서 파라미터(예: Temperature 0.6, Top P 0.95) 조정
5. 채팅창에서 바로 한글로 질문!
실사용 팁
- NVIDIA GPU가 있으면 속도가 훨씬 빠릅니다!
- 32B 모델은 VRAM 16GB 이상 권장(저는 4070 Ti Super로 무난하게 돌렸어요)
- 한글 질문에 대한 답변이 매우 자연스럽고 빠릅니다.
파이썬으로 직접 돌려보기(Transformers 활용) 🐍
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, TextIteratorStreamer
from threading import Thread
model_name = "LGAI-EXAONE/EXAONE-Deep-2.4B"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [{"role": "user", "content": "How many golf balls can fit in a school bus?"}]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
streamer = TextIteratorStreamer(tokenizer)
thread = Thread(target=model.generate, kwargs=dict(
input_ids=input_ids.to("cuda"),
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=32768,
do_sample=True,
temperature=0.6,
top_p=0.95,
streamer=streamer
))
thread.start()
for text in streamer:
print(text, end="", flush=True)
위 코드를 활용하면 파이썬 환경에서도 바로 실험해볼 수 있어요!
직접 써보니 어땠나? 😎
- 한글 질문에 대한 답변이 매우 자연스럽고, 논리적
- 수학, 코딩, 일반 상식 등 다양한 분야에서 빠르고 정확
- 대형 모델(32B)은 다소 느리지만, 중소형 모델은 쾌적
- 한글 LLM 찾는 분들께 강력 추천!
마무리 & 꿀팁 🍯
엑사원딥은 설치도 쉽고, 한글 AI 실험에 최적화된 모델입니다.
여러분도 Ollama나 LM Studio, 혹은 파이썬 환경에서 직접 설치해보시고,
궁금한 질문을 던져보세요!
저는 앞으로도 다양한 한글 LLM 실습기를 계속 올릴 예정이니, 궁금한 점은 댓글로 남겨주세요!
#AI #엑사원딥 #LG #국산AI #LLM #한글AI #Ollama #LMStudio #실습후기 #코딩 #수학 #AI실험 #EXAONEDeep
'미래를 만드는 코드' 카테고리의 다른 글
🚨2025년 오픈AI 대격변! 비영리 미션 vs. 수익 추구, PBC 전환의 모든 것🔥 (0) | 2025.05.06 |
---|---|
아이폰 iOS 18.4.1 업데이트 완벽 정리! 🚀 꼭 해야 하는 이유와 달라진 점 총정리 (0) | 2025.05.06 |
🤖 ChatGPT, 왜 이렇게 칭찬만 할까? OpenAI의 'AI 아첨' 논란과 그 이면의 진실 🌟 (0) | 2025.05.02 |
AI가 대신 쇼핑하고 결제까지! 비자와 마스터카드의 '지능형 커머스' 혁명 🚀 (1) | 2025.05.02 |
🤖 ChatGPT가 너무 착해진 이유? 오픈AI GPT-4o ‘아첨봇’ 사태 전말과 AI 성격의 미래 대공개! 🎭 (0) | 2025.05.02 |