MiroFish là gì? Trải nghiệm engine AI mã nguồn mở dự đoán tương lai bằng Multi-Agent
Dạo gần đây mình hay lượn lờ tìm hiểu các project về Multi-Agent (Đa tác nhân), và tình cờ va phải một con hàng khá thú vị tên là MiroFish.
Tóm lại bằng một câu, đây là một engine mã nguồn mở cho phép tạo ra hàng vạn AI agent tương tác tự do trong thế giới ảo để dự đoán xu hướng và dư luận. Đáng nói là nó không chỉ nằm ở mức PoC (Proof of Concept) "chém gió", mà bạn hoàn toàn có thể deploy và chạy thực tế trên máy local. Với hơn 220 commit, có sẵn Docker và cả bản demo xịn xò trên trang chủ, MiroFish thực sự là một product "dùng được".
Bài viết này mình sẽ review lại toàn bộ quá trình setup cũng như những "kinh nghiệm xương máu" mình gặp phải trong lúc cài cắm để anh em tránh vết xe đổ nhé.
MiroFish là gì? — Engine tạo ra "Thế giới song song kỹ thuật số High-Fidelity"

MiroFish là engine dự đoán AI dựa trên Swarm Intelligence (Trí tuệ bầy đàn), được phát triển dưới sự hỗ trợ của Shanda Group. Cơ chế hoạt động tóm gọn như sau:
- Truyền dữ liệu seed (bài báo, dự thảo chính sách, văn bản tiểu thuyết, v.v.).
- Tự động xây dựng Knowledge Graph (Sơ đồ tri thức) từ văn bản.
- Dựa trên cấu trúc graph, tạo ra hàng loạt agent có persona (nhân cách), bộ nhớ và logic hành vi độc lập.
- Cho các agent tự do tương tác trong không gian ảo để mô phỏng các hành vi xã hội.
- ReportAgent phân tích trạng thái cuối cùng và xuất ra báo cáo dự đoán có cấu trúc.
Nói nôm na là tạo ra một "thế giới song song kỹ thuật số" và ngồi rung đùi quan sát xem chuyện gì sẽ xảy ra trong đó.
Bản demo trên trang chủ giới thiệu khá nhiều use-case độc lạ như mô phỏng dư luận ở trường đại học hay dự đoán cái kết bị thất lạc của bộ tiểu thuyết cổ điển "Hồng Lâu Mộng".
📎 Trang chủ: mirofish.ai
Setup: Chạy thử nhanh gọn lẹ
Có 2 cách deploy chính là Source code và Docker. Chi tiết các bước bạn có thể xem ở phần '🚀 Quick Start' trong README chính thức, mình chỉ tóm tắt những ý chính thôi nhé.
Yêu cầu môi trường
| Mục | Yêu cầu |
|---|---|
| Node.js | v18 trở lên (check bằng node -v) |
| Python | 3.11〜3.12 (check bằng python --version) |
| uv | Python package manager (check bằng uv --version) |
| LLM API | API tương thích với OpenAI SDK (GPT, Claude, Qwen...) |
| Zep Cloud | Quản lý long-term memory cho agent (Tùy chọn nhưng khuyên dùng) |
Lưu ý⚠️: README chính thức khuyên dùng model
qwen-pluscủa Alibaba Cloud. Do lượng token bị đốt là cực kỳ khủng khiếp, anh em nên test thử trước với các mô phỏng quy mô nhỏ dưới 40 round cho "an toàn túi tiền" nhé.
Deploy từ Source code (Khuyên dùng)
git clone https://github.com/666ghj/MiroFish.git
cd MiroFish
cp .env.example .env # Điền API key vào file .env
npm run setup:all # Cài dependency cho cả frontend & backend
npm run dev # Chạy cả frontend (3000) + backend (5001)
Nếu muốn chạy riêng rẽ, bạn cứ gõ lệnh npm run frontend hoặc npm run backend là xong.
Deploy bằng Docker (Dành cho ai muốn ăn xổi)
cp .env.example .env # Điền API key vào file .env
docker compose up -d # Khởi chạy dịch vụ ở port 3000/5001
Workflow: Làm được những gì?
Sau khi setup xong, anh em vào http://localhost:3000 và làm theo luồng sau:
- Import dữ liệu seed — Nhét text, mô tả sự kiện, hoặc report báo cáo vào
- Setup biến mô phỏng — Cấu hình cấu trúc xã hội, rule tương tác, số lượng agent...
- Chạy mô phỏng — Build Knowledge Graph → Tạo Agent → Tự động chạy nhiều round tương tác
- Xem report dự đoán — Check xu hướng, phân bổ cảm xúc, gom cụm hành vi...
- Đào sâu tương tác — Chat trực tiếp với bất kỳ agent nào hoặc ReportAgent để phân tích sâu hơn
Cái sướng nhất của dev là: dù có thể chạy mô phỏng No-code, bạn vẫn hoàn toàn có thể nhúng logic xử lý sự kiện của riêng mình, tune thông số agent cho chuẩn chỉ, và dùng callback API để hứng kết quả về hệ thống khác.
Tổng quan kiến trúc: Chuyện gì xảy ra bên dưới?
Flow bên trong của engine có thể tóm tắt sương sương như sau:
Text đầu vào
↓
① Build Knowledge Graph (GraphRAG)
— Tự động trích xuất các Entity (Thực thể) và Relation (Mối quan hệ)
↓
② Tạo môi trường & Agent
— Gen ra persona và hành vi dựa trên cấu trúc graph
↓
③ Mô phỏng Multi-Agent
— Các agent tương tác trong môi trường song song & cập nhật memory
↓
④ Gen Báo cáo
— ReportAgent phân tích và xuất report có cấu trúc
Rõ ràng cách tiếp cận này khác bọt hoàn toàn so với việc quăng prompt "Dự đoán đi" cho một con LLM đơn lẻ. Nó dùng mô hình Knowledge Graph-driven × Multi-Agent Collaboration để tiến hành. Engine mô phỏng cốt lõi đang dùng là OASIS (CAMEL-AI).
Những pha "cú lừa" khi setup và cách Fix
Với anh em dev thì chắc phần này là cứu cánh nhất. Mình đã đạp phải vài quả mìn trong lúc cài đặt và list ra đây cho anh em né nhé.
1. Không tìm thấy lệnh uv
'uv' is not recognized as an internal or external command
Trường hợp này do cài uv trong môi trường Conda, nhưng khi gõ npm run dev để chạy backend thì Conda enviroment không được activate, dẫn đến mất path.
Cách fix: Chạy riêng frontend và backend cho đỡ đau đầu.
# Backend (Chạy qua môi trường Conda)
cd backend
conda run -n your_env_name python run.py
# Frontend (Mở một Terminal khác)
cd frontend
npm run dev
Hoặc cách phũ phàng hơn là cài luôn uv ở mức global:
pip install uv
# hoăc
curl -LsSf https://astral.sh/uv/install.sh | sh
2. Lỗi Native module của Rollup (Môi trường Windows)
Error: Cannot find module @rollup/rollup-win32-x64-msvc
Lỗi kinh điển trên Windows do các optional dependencies của npm không cài đặt thành công. Cài tay lại là xong chuyện.
cd frontend
npm i -D @rollup/rollup-win32-x64-msvc
Cài tay không ăn thì anh em cứ mạnh dạn xóa node_modules và package-lock.json đi rồi clean install lại. Nên dùng Node.js bản 18 LTS hoặc 20 LTS cho ổn định.
3. Vài Tips về API Key
- API Key bắt buộc phải vứt vào file
.env. Tuyệt đối không hardcode trong source nhé. - Trong repo có sẵn mấy file test script như
test_api_key.py/test_bailian_api_key.py, lấy ra dùng test connection cho lẹ.
python test_bailian_api_key.py
Lưu ý khi vận hành (Operation Tips)
| Hạng mục | Điểm cần lưu ý |
|---|---|
| Chi phí API | Chạy mô phỏng quy mô lớn sẽ gọi LLM liên tục, chi phí sẽ nhân lên chóng mặt. Nhớ ước tính trước budget nhé. |
| Lưu trữ Memory | Việc tích hợp Zep Cloud sẽ tăng cường khả năng Long-term Memory cho các agent lên mức đáng kinh ngạc. |
| Tương thích version | Phiên bản Python và Node không khớp là lỗi dependency đập vô mặt liền. Anh em nên dùng nvm / pyenv quản lý cho nhàn. |
| Diễn giải kết quả | Báo cáo mô phỏng suy cho cùng chỉ là "phân bố xác suất", không phải dự đoán tương lai 100%. Anh em nên dùng kết hợp với các mô hình truyền thống. |
Lời kết: Không chỉ là "Concept" mà là Product thực chiến
Tính ra lúc đầu nghe bảo "Dùng Multi-Agent dự đoán tương lai", mình cũng bán tín bán nghi kiểu "chắc lại vẽ vời concept". Nhưng bắt tay vào deploy chạy thử mới thấy quá trình từ build Knowledge Graph, tạo agent, run mô phỏng tới chốt sổ ra report đều chạy mượt mà trên cùng một đường ống (pipeline).
- Giai đoạn Dev → Deploy source để Hot reload và debug thả ga.
- Demo / Production → Gõ 1 dòng Docker là phân lập môi trường, chạy ổn định luôn.
- Khả năng mở rộng → Rất dễ tùy biến nhúng logic riêng hay tích hợp tool ngoài.
Anh em nào đang định vọc vạch tính ứng dụng của Multi-Agent thì thực sự không nên bỏ qua con hàng này. Nhất là ai đang kiếm các use-case thiên về mô phỏng (phân tích kịch bản dư luận, dự đoán động thái hệ thống phức tạp...), đảm bảo "vừa khít".
Anh em đã thử chạy và có feedback gì bựa bựa, hay test những use-case độc lạ thì comment hay chia sẻ trên MXH nhé! Cùng vào hang vọc vạch đồ chơi mới nào 🐟
Link tham khảo:
All Rights Reserved