[AI] 브라우저에서 실행하는 LLM

#ai #llm #webllm #browser

Image


WebLLM — 브라우저에서 LLM을 실행하는 기술과 활용 방법

대규모 언어 모델(LLM)은 이제 브라우저에서도 실행할 수 있습니다.
WebLLM은 WebGPU와 WebAssembly를 활용해 서버 없이도 LLM을 실행합니다.

WebLLM이란?

  • 브라우저에서 완전 오프라인으로 LLM 실행 가능
  • 개인정보 보호 및 빠른 응답 가능

어떻게 동작하는가?

  • 모델은 처음 로드 후 CacheStorage에 저장
  • WebAssembly + WebGPU로 빠른 실행

장점 비교

항목클라우드 LLMWebLLM
오프라인 사용불가능가능
개인정보 보호서버 전송 필요로컬 실행
설치서버 필요브라우저만 있으면 가능

사용 예

npm i @mlc-ai/web-llm
const engine = await webllm.CreateMLCEngine("모델명");
const reply = await engine.chat.completions.create({ messages });

결론

WebLLM은 가벼운 AI 서비스나 개인화된 애플리케이션 개발에 매우 적합합니다.