Chia Sẻ Khóa Học AI ML GenAI Trên Data Center-Class GPU Với Red Hat OpenShift [Khóa 5807 A]
OpenShift & OpenShift AI trên các GPU hiệu suất cao: Từ Bare-Metal đến Production trong một ngày.
Những gì bạn sẽ học được:
- ✓ Thiết lập một GPU node cấp bare-metal data center, validate firmware & BIOS và đăng ký nó trong một OpenShift cluster mới.
- ✓ Cài đặt và điều chỉnh GPU Operator với các Multi-Instance GPU (MIG) profile để sử dụng tối đa.
- ✓ Deploy Red Hat OpenShift AI (RHOAI) và chạy một Mistral LLM workload thực tế với Ollama.
- ✓ Giám sát, khắc phục sự cố, nâng cấp và mở rộng nền tảng trong production.
Khai phá sức mạnh của AI cấp doanh nghiệp ngay trong trung tâm dữ liệu của bạn, từng bước một, từ bare-metal đến production-ready inference. Trong khóa học thực hành này, bạn sẽ học cách chuyển đổi một GPU server hiệu suất cao và một lightweight virtualization host thành một Red Hat OpenShift cluster đầy đủ tính năng, chạy OpenShift AI, GPU Operator và các LLM workload thực tế (Mistral-7B với Ollama). Chúng tôi bỏ qua các slide lý thuyết và đi thẳng vào bàn phím và terminal, mọi YAML, mọi BIOS toggle, mọi mẹo khắc phục sự cố đều được quay video.
Những gì bạn sẽ xây dựng:
- ✓ Một three-node virtual control plane + một bare-metal GPU worker, được deploy thông qua Installer dựa trên Agent mới.
- ✓ GPU Operator với MIG slicing, UUID persistence và live metric trong Grafana.
- ✓ OpenShift AI (RHODS) với Jupyter và các model-serving pipeline.
- ✓ Một load balancer cấp sản xuất, DNS zone và HTTPS ingress, không cần managed cloud.
Thực hành từng bước: bạn sẽ kiểm tra firmware thông qua iDRAC, patch BIOS settings, generate một custom Agent ISO, boot cluster, join GPU node và push một LLM endpoint mà bạn có thể hoàn thành trong vòng chưa đầy một phút. Trong quá trình này, chúng ta sẽ nâng cấp OpenShift, theo dõi nhiệt độ GPU và xử lý tình huống "Node Not Ready" - vì thực tế luôn có những tình huống như vậy.
Ai nên đăng ký:
Các DevOps engineer, SRE và ML practitioner có quyền truy cập vào một data center-grade GPU server và muốn có lộ trình cài đặt tương thích với doanh nghiệp, có thể lặp lại. Yêu cầu kỹ năng Linux và kubectl cơ bản; mọi thứ khác sẽ được hướng dẫn trực tiếp.
Khi kết thúc khóa học, bạn sẽ có một Git repository đã được kiểm chứng thực tế với đầy đủ các manifest, một private Agent ISO pipeline mà bạn có thể clone cho các edge site mới, và sự tự tin để xây dựng hoặc mở rộng nền tảng OpenShift AI được tăng tốc bằng GPU của riêng bạn. Hãy tham gia cùng chúng tôi và hoàn thành LLM workload tại chỗ đầu tiên của bạn ngay hôm nay.
Mục lục:
- ✓ 1. Welcome & Lab Setup.
- ✓ 2. Lab Setup.
- ✓ 3. Cài đặt Bare-Metal.
- ✓ 4. NVIDIA GPU Enablement.
- ✓ 5. Serving Inference.
Khóa học này dành cho ai:
- ✓ Machine Learning Engineer.
- ✓ DevOps Engineer.
- ✓ Site Reliability Engineer (SRE)
- ✓ Các Python Developer đang khám phá cơ sở hạ tầng.
NHẬN GET EBOOK TRÊN AMAZON THEO YÊU CẦU