QNAP Edge AI Storage Server
Nền tảng điện toán AI Edge tất cả trong một tích hợp lưu trữ, ảo hóa và sức mạnh tính toán để giúp các doanh nghiệp triển khai các ứng dụng AI tại chỗ một cách hiệu quả, an toàn và tiết kiệm chi phí — đẩy nhanh quá trình chuyển đổi thông minh trên khắp các ngành.
Những thách thức mà doanh nghiệp phải đối mặt trong kỷ nguyên AI
Khi nhu cầu về GenAI, LLM và điện toán biên tăng đột biến, cơ sở hạ tầng CNTT truyền thống đang gặp phải một số trở ngại:
• Rủi ro bảo mật đám mây cao
Hơn 90% doanh nghiệp coi bảo mật dữ liệu là mối quan tâm hàng đầu khi triển khai AI. Việc triển khai trên nền tảng đám mây tiềm ẩn nguy cơ rò rỉ dữ liệu và rủi ro tuân thủ.
• Chi phí triển khai tăng vọt
Phí cấp phép chồng chéo cho các mô hình đám mây, sử dụng mã thông báo, truy cập GPU, lưu trữ và nền tảng ảo hóa làm tăng đáng kể tổng chi phí sở hữu (TCO).
• Cơ sở hạ tầng bị phân mảnh
Hệ thống lưu trữ và tính toán không kết nối sẽ dẫn đến việc tích hợp tốn thời gian và bảo trì phức tạp.
• Hiệu suất không ổn định
Cơ sở hạ tầng dùng chung khiến các mô hình AI và ứng dụng ảo hóa cạnh tranh tài nguyên hệ thống, dẫn đến độ trễ và hiệu suất không thể đoán trước.
• Khối lượng dữ liệu bùng nổ
AI và các ứng dụng sử dụng nhiều dữ liệu tạo ra lượng dữ liệu khổng lồ, gây áp lực lên khả năng mở rộng lưu trữ và quản lý dữ liệu truyền thống.
Tại sao nên chọn máy chủ lưu trữ QNAP Edge AI?
Máy chủ lưu trữ QNAP Edge AI cung cấp một nền tảng điện toán biên thống nhất, tích hợp lưu trữ dữ liệu, ảo hóa, tăng tốc GPU và I/O, và quản lý tài nguyên CPU. Nền tảng này cho phép doanh nghiệp triển khai hiệu quả các ứng dụng AI và thiết bị biên tại chỗ. Doanh nghiệp có thể cài đặt ứng dụng ảo hóa Virtualization Station của QNAP hoặc nền tảng quản lý container Container Station trên QAI để linh hoạt xây dựng các máy chủ suy luận AI và máy chủ lưu trữ biên tại chỗ, phù hợp với các trường hợp sử dụng cụ thể, mang lại hiệu suất cao và độ trễ thấp.
Hỗ trợ nhiều ứng dụng AI biên khác nhau:
- Suy luận mô hình ngôn ngữ nhỏ (SLM)
- Suy luận mô hình ngôn ngữ lớn (LLM)
- Trí tuệ nhân tạo
- Suy luận và tinh chỉnh mô hình AI
- Sản xuất thông minh và tự động hóa công nghiệp
- Phân tích khách hàng và bán lẻ thông minh
- Giám sát thông minh và phân tích video
• Kiểm soát dữ liệu nâng cao
Tất cả dữ liệu và ứng dụng đều được lưu trữ tại chỗ, loại bỏ rủi ro liên quan đến việc truyền dữ liệu trên nền tảng đám mây công cộng và đảm bảo tuân thủ.
• Triển khai và quản lý đơn giản
Chạy bộ nhớ, VM, khối lượng công việc GPU và ứng dụng trên một QAI duy nhất để giảm thiểu độ phức tạp trên nhiều thiết bị.
• Sẵn sàng thực hiện ngay lập tức
Phân bổ tài nguyên động và tăng tốc phần cứng đảm bảo hoạt động VM và AI diễn ra trơn tru và hiệu quả.
• Hiệu quả chi phí
Nền tảng ảo hóa không cần giấy phép của QNAP giúp giảm đáng kể TCO dài hạn.
Ưu điểm kỹ thuật so với kiến trúc truyền thống
Máy chủ lưu trữ QNAP Edge AI cung cấp khả năng phân bổ tài nguyên hệ thống linh hoạt, tăng tốc phần cứng tiên tiến và bảo vệ dữ liệu cấp doanh nghiệp — khiến nó trở thành nền tảng lý tưởng cho điện toán biên.
• Phân bổ tài nguyên chuyên dụng
Sử dụng Virtualization Station để phân bổ CPU, bộ nhớ và băng thông mạng cho các máy ảo (VM) cụ thể, ngăn ngừa xung đột tài nguyên.
• Tăng tốc GPU cho khối lượng công việc AI
Cho phép chuyển tiếp GPU để phân bổ GPU vật lý cho VM nhằm suy luận AI và xử lý đồ họa nhanh hơn.
• SR-IOV cho mạng lưới được tối ưu hóa
Cung cấp cho máy ảo các kênh NIC trực tiếp, giúp giảm độ trễ mạng và chi phí băng thông.
• Truyền qua PCIe hiệu suất cao
Chỉ định card đồ họa, card mạng hoặc bộ điều khiển lưu trữ trực tiếp cho VM, đạt được hiệu suất phần cứng gần như gốc.
• Mở rộng lưu trữ có thể mở rộng
Hỗ trợ hộp mở rộng lưu trữ SAS/FC để đáp ứng nhu cầu lưu trữ AI và ảo hóa ngày càng tăng.
• Bảo vệ dữ liệu doanh nghiệp
Được xây dựng trên ZFS, hỗ trợ RAID , ảnh chụp nhanh, tính bất biến dữ liệu (WORM) , loại bỏ trùng lặp dữ liệu và tối ưu hóa SSD.
Giải phóng hiệu suất VM với phân bổ tài nguyên chính xác
Công nghệ tăng tốc tiên tiến
Công nghệ Passthrough
Chỉ định trực tiếp tài nguyên GPU vật lý, NIC hoặc thiết bị PCIe khác cho các máy ảo được chỉ định, giảm thiểu chi phí quản lý siêu giám sát để có hiệu suất ổn định hơn và độ trễ thấp hơn.
-
- Truyền qua GPU
- Chuyển tiếp PCIe
Phân bổ tài nguyên được tối ưu hóa
Quản lý tài nguyên CPU
Với tính năng quản lý tài nguyên CPU (sẽ sớm được hỗ trợ), bạn có thể chỉ định luồng CPU chuyên dụng cho các máy ảo cụ thể (CPU Isolation), đảm bảo hoạt động VM ổn định và độc lập đồng thời giảm đáng kể tình trạng tranh chấp tài nguyên và biến động hiệu suất giữa VM và các ứng dụng khác.
Chạy LLM tại chỗ liền mạch trên QNAP QAI
Tích hợp công nghệ ảo hóa, mô hình ngôn ngữ lớn (LLM) và giao diện người dùng trực quan trên một thiết bị:
1. Triển khai các container ứng dụng
Triển khai linh hoạt nhiều loại ứng dụng và dịch vụ khác nhau bằng QNAP Container Station, hỗ trợ nhiều môi trường chạy thời gian thực trong container như Docker, Kata và LXD.
2. Máy tính tăng tốc GPU
Cấu hình quyền truy cập GPU trong môi trường chứa để cho phép chứa trực tiếp sử dụng GPU của NAS để suy luận AI hoặc tăng tốc xử lý video.
3. Triển khai nhiều LLM
Khi sử dụng Ollama, bạn có thể dễ dàng triển khai nhiều mô hình ngôn ngữ lớn (LLM) nguồn mở, chẳng hạn như LLaMA, DeepSeek, Qwen và Gemma, với khả năng linh hoạt chuyển đổi hoặc cập nhật mô hình khi cần.
4. Tích hợp với giao diện dựa trên web
Cài đặt các giao diện web nguồn mở như Anything LLM hoặc Open WebUI để kết nối với các mô hình ngôn ngữ mà không cần viết mã để tạo trợ lý AI tùy chỉnh, bot dịch vụ khách hàng thông minh hoặc công cụ tìm kiếm nội bộ.
Chuyển đổi QAI của bạn thành máy chủ sao lưu VM
Một QNAP QAI có thể đóng vai trò vừa là máy chủ ảo hóa vừa là máy chủ sao lưu trung tâm.
1. Chạy nhiều máy ảo (VM)
Virtualization Station là ứng dụng quản lý siêu giám sát QNAP QuTS hero và cho phép bạn triển khai nhiều máy ảo Windows® hoặc Linux® trên một QAI duy nhất.
2. Hỗ trợ sao lưu VM
Cài đặt phần mềm sao lưu Veeam® trên máy ảo (VM) độc lập chạy trên QAI và cấu hình QAI làm mục tiêu sao lưu. Điều này cho phép lưu trữ và quản lý tập trung dữ liệu sao lưu từ nhiều khối lượng công việc khác nhau, bao gồm máy ảo (VM), máy chủ vật lý, thiết bị NAS khác và dịch vụ đám mây.
3. Quản lý tài nguyên CPU
Các tác vụ sao lưu máy ảo (VM) đòi hỏi tài nguyên CPU mạnh mẽ. Thông qua Virtualization Station, bạn có thể phân bổ tài nguyên CPU hiệu quả để đảm bảo hoạt động sao lưu ổn định và không bị gián đoạn.
Các ứng dụng đa dạng cho nhiều nhu cầu kinh doanh khác nhau
• Trung tâm kiến thức AI doanh nghiệp
Kết hợp NAS, LLM và RAG để xây dựng hệ thống tìm kiếm nội bộ hỗ trợ AI — nâng cao khả năng truy xuất, phân tích và năng suất dữ liệu.
Khám phá tìm kiếm doanh nghiệp với RAG
• chatbot AI
Sử dụng LLM để hỗ trợ chatbot thông minh phản hồi nhanh hơn, chính xác hơn và cải thiện sự tương tác với khách hàng.
• Máy chủ ảo hóa
Chạy nhiều máy ảo cho môi trường thử nghiệm và phát triển mô hình AI nội bộ.
• Sao lưu máy ảo và bảo vệ dữ liệu
Tích hợp các giải pháp sao lưu Veeam® để tăng cường bảo mật dữ liệu máy ảo.
• Lưu trữ và sao lưu dữ liệu AI
Lưu trữ các tập dữ liệu AI thô hoặc dùng làm bộ lưu trữ tốc độ cao để truy cập dữ liệu thường xuyên trong quy trình làm việc AI dựa trên RAG.
Tối ưu hóa phát triển AI với QNAP NAS
Mô hình được đề xuất
Được thiết kế riêng cho việc triển khai AI biên, NAS QNAP AI Series, kết hợp với card đồ họa cao cấp NVIDIA, mang lại hiệu suất vượt trội cho suy luận AI, xử lý phương tiện có độ phân giải cao và ảo hóa.
QAI-h1290FX (SẮP RA MẮT)
- NAS 12-bay U.2 NVMe / SATA flash toàn diện
- Được trang bị bộ xử lý AMD EPYC™ 7302P 16 lõi / 32 luồng
- Bộ nhớ DDR4 ECC RDIMM 128GB
- Được cài đặt sẵn sáu ổ SSD U.2 NVMe 3,84TB
- Có sẵn với GPU NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation
- Bao gồm các tính năng độc quyền của QAI, chẳng hạn như Container Station với các mẫu ứng dụng AI nguồn mở được quản lý để triển khai nhanh chóng





















Xem thêm