Featured image of post 5 Dự Án Tuyệt Vời Có Thể Làm Với LM Studio Local API

5 Dự Án Tuyệt Vời Có Thể Làm Với LM Studio Local API

Hướng dẫn cách sử dụng Local Server của LM Studio với script Python, AI coding assistant, và chat với tài liệu bảo mật hoàn toàn miễn phí.

Bạn đã tải LM Studio và lấy về một model cực mạnh như Qwen3.5-9B. Chat với AI trong app thì vui đấy, nhưng làm sao để thực sự ứng dụng nó vào thực tế?

Phép thuật nằm ở Local Server được tích hợp sẵn trong LM Studio. Nó được thiết kế để hoạt động giống hệt API chính thức của OpenAI. Nhưng thay vì gửi dữ liệu riêng tư của bạn lên cloud và trả tiền theo từng token, mọi request sẽ được xử lý ngay trên GPU của bạn.

Dưới đây là 5 công cụ tuyệt vời bạn có thể kết nối với AI server thiết bị của mình ngay hôm nay.

Điều kiện tiên quyết: Bật Local Server

Dù bạn định xây dựng dự án nào dưới đây, bạn luôn cần bật server lên trước:

  1. Mở LM Studio và đảm bảo bạn đã load một model (ví dụ: qwen3.5-9b).
  2. Click vào tab ↔️ Developer ở thanh bên trái.
  3. Nhấn nút Start Server ở phía trên.

Mặc định, server sẽ bắt đầu chạy trên cổng 1234.


1. Viết Code Python Tùy Chỉnh 🐍

Vì LM Studio server bắt chước OpenAI, bất kỳ đoạn script Python nào viết cho ChatGPT cũng sẽ chạy được với model local của bạn. Bạn chỉ cần sửa đúng một dòng code.

Chúng ta sẽ sử dụng uv, một trình quản lý package Python siêu tốc, để xử lý môi trường ảo (virtual environment) và thư viện một cách gọn gàng.

  1. Khởi tạo project mới: Mở terminal, đi tới thư mục bạn muốn lưu project và chạy lệnh:
    1
    2
    
    uv init my-ai-project
    cd my-ai-project
    
  2. Cài đặt thư viện OpenAI: Lệnh này sẽ tự động tạo môi trường ảo (.venv), khóa các dependencies, và cài đặt thư viện chính thức của OpenAI:
    1
    
    uv add openai
    

Bước 2: Chạy Code Python

Bây giờ hãy mở file hello.pyuv vừa tạo ra (hoặc tự tạo file mới như chat.py) và thay thế nội dung của nó bằng đoạn code dưới đây.

Phép thuật nằm ở chỗ khởi tạo client — thay vì trỏ tới server của OpenAI, chúng ta trỏ base_url thẳng về máy tính của bạn.

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
from openai import OpenAI

# Trỏ client về local LM Studio server của bạn
# "lm-studio" là API key ảo, bắt buộc phải có cho thư viện nhưng server sẽ bỏ qua
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")

# Đặt câu hỏi cho Qwen!
response = client.chat.completions.create(
    model="qwen3.5-9b", # Lưu ý: LM Studio tự nhận diện model bạn đang load
    messages=[
        {"role": "system", "content": "Bạn là một trợ lý AI thông minh và hữu ích."},
        {"role": "user", "content": "Tại sao bầu trời màu xanh? Giải thích trong một câu ngắn gọn."}
    ],
    temperature=0.7,
)

print(response.choices[0].message.content)

Cuối cùng, chạy script thông qua uv:

1
uv run hello.py

Bạn sẽ thấy câu trả lời của Qwen in trực tiếp ra terminal.

Chỉ đơn giản vậy thôi, bạn đã có một API AI hoàn toàn riêng tư chạy trên chính GPU của mình.


4. Giao Diện Web Giống ChatGPT (Open WebUI) 🌐

Mặc dù LM Studio có sẵn tính năng chat rất tốt, nhưng đôi khi bạn muốn một giao diện web chuyên dụng, đẹp mắt mang lại cảm giác giống hệt ChatGPT, có đầy đủ lịch sử chat, thư mục và markdown. Open WebUI là frontend tiêu chuẩn của cộng đồng cho việc này.

  1. Cài đặt Open WebUI: Cách dễ nhất là dùng Docker (docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main).
  2. Mở Ứng dụng: Truy cập http://localhost:3000 trên trình duyệt.
  3. Kết nối với LM Studio: Vào Cài đặt (Settings) → Kết nối (Connections). Dưới phần OpenAI API, thêm http://host.docker.internal:1234/v1 (nếu dùng Docker) hoặc http://127.0.0.1:1234/v1 làm base URL. Nhập lm-studio làm API key.

Bây giờ các model LM Studio hoàn toàn riêng tư của bạn đã có mặt trên một giao diện web tuyệt đẹp, có thể truy cập từ bất kỳ thiết bị nào dùng chung mạng Wi-Fi!


5. Xây Dựng Đội Ngũ AI Agent (CrewAI) 🤖👔

Tại sao phải dùng một AI khi bạn có thể có cả một đội ngũ? CrewAI là một framework Python cực kỳ phổ biến cho phép tạo ra các AI agent đóng vai (như “Nhà nghiên cứu”, “Người viết”, và “Biên tập viên”) làm việc cùng nhau để hoàn thành các tác vụ phức tạp.

Vì CrewAI hỗ trợ tiêu chuẩn OpenAI, việc kết nối nó với LM Studio diễn ra vô cùng đơn giản. Bạn chỉ cần thiết lập hai biến môi trường trong terminal trước khi chạy script CrewAI:

Mac/Linux:

1
2
export OPENAI_API_BASE="http://localhost:1234/v1"
export OPENAI_API_KEY="lm-studio"

Windows (PowerShell):

1
2
$env:OPENAI_API_BASE="http://localhost:1234/v1"
$env:OPENAI_API_KEY="lm-studio"

Lúc này, khi các agent CrewAI của bạn “suy nghĩ” và giao tiếp với nhau, trên thực tế chúng đang giao tiếp hoàn toàn qua GPU của bạn thông qua LM Studio!


2. Trợ Lý Lập Trình AI Miễn Phí (Continue.dev) 💻

Tại sao phải trả $20/tháng cho GitHub Copilot khi bạn có thể chạy một trợ lý lập trình AI ngay tại máy? Continue.dev là một extension mã nguồn mở cho VS Code và JetBrains có khả năng kết nối trực tiếp với LM Studio.

  1. Cài đặt Extension: Tìm từ khóa “Continue” trong tab extension của VS Code và cài đặt.
  2. Mở Cài đặt: Click vào biểu tượng bánh răng ở thanh bên của Continue để mở file config.json.
  3. Thêm LM Studio làm Provider: Thêm đoạn cấu hình này vào mảng models:
1
2
3
4
5
6
{
  "title": "LM Studio Local",
  "provider": "openai",
  "model": "qwen3.5-9b",
  "apiBase": "http://127.0.0.1:1234/v1"
}

Bây giờ bạn có thể bôi đen code trong editor, nhấn Cmd/Ctrl + L, và yêu cầu model LM Studio cục bộ của bạn giải thích hoặc refactor code!


3. Chat Với Tài Liệu PDF Riêng Tư (AnythingLLM) 📚

Nếu bạn có các tài liệu nhạy cảm của công ty, hồ sơ thuế, hoặc bệnh án cá nhân, bạn tuyệt đối không nên tải chúng lên ChatGPT. Thay vào đó, hãy dùng AnythingLLM để xây dựng một chatbot tải liệu offline 100%.

  1. Cài đặt AnythingLLM: Tải xuống ứng dụng desktop.
  2. Thiết lập LLM Provider: Đi tới Settings → LLM Provider.
  3. Chọn LM Studio: AnythingLLM hỗ trợ LM Studio mặc định. Chỉ cần chọn nó từ menu thả xuống, đảm bảo URL là http://127.0.0.1:1234, và chọn model bạn đang load.
  4. Tải lên và Chat: Tạo một workspace, kéo thả file PDF của bạn vào AnythingLLM, và bắt đầu đặt câu hỏi. Ứng dụng sẽ trích xuất văn bản, gửi nó cho LM Studio xử lý, và trả lời bạn dựa hoàn toàn trên tài liệu của bạn.

Bonus: Xây Dựng Autonomous Agent với OpenClaw 🤖

Nếu chỉ viết script là chưa đủ, bạn có thể cấp cho AI “tay” và “chân” bằng OpenClaw. Đây là một autonomous agent mã nguồn mở có khả năng đọc file, chỉnh sửa code và duyệt web trực tiếp trên máy tính của bạn.

Dưới đây là cách kết nối chúng:

  1. Tìm file Config OpenClaw: Mở file cấu hình openclaw.json của bạn (thường nằm ở ~/.openclaw/ hoặc thư mục user).
  2. Cập nhật Cấu hình: Chỉnh sửa file để đổi provider của OpenClaw sang local server của bạn.
1
2
3
4
5
6
7
{
  "provider": "lmstudio",
  "baseUrl": "http://127.0.0.1:1234/v1",
  "models": {
    "primary": "lmstudio/qwen3.5-9b" 
  }
}
  1. Kiểm tra Kết nối: Chạy lệnh openclaw doctor trong terminal.

Sau khi cấu hình xong, OpenClaw sẽ định tuyến toàn bộ quá trình “suy nghĩ” qua GPU của bạn, mang lại cho bạn một trợ lý AI desktop hoàn toàn riêng tư và cực kì xịn xò!

Được tạo với sự lười biếng tình yêu 🦥

Subscribe to My Newsletter