Trong bối cảnh cơn sốt AI đang chuyển dịch từ huấn luyện mô hình sang giai đoạn “inference” (suy diễn mô hình), AMD cho rằng cuộc chơi thực sự sẽ diễn ra trên các thiết bị cá nhân – và họ đang đặt cược lớn vào xu hướng này.
Chia sẻ với Business Insider, Giám đốc công nghệ của AMD, ông Mark Papermaster, cho biết các tác vụ inference đang ngày càng rời xa trung tâm dữ liệu để tiến gần hơn tới “edge devices” – những thiết bị đầu cuối như điện thoại thông minh và laptop. Theo ông, chi phí vận hành AI tại trung tâm dữ liệu đang tăng chóng mặt, buộc các ông lớn như Microsoft, Meta hay Google phải xem xét lại chiến lược và hướng đến AI tại thiết bị người dùng.

Điều này cũng lý giải vì sao AMD đang tiếp cận làn sóng “AI PC” một cách nghiêm túc hơn nhiều so với các đối thủ như Intel hay Qualcomm. Các dòng APU mới nhất của hãng – như Strix Point và Strix Halo – đều được thiết kế với mục tiêu mang sức mạnh AI vào thiết bị nhỏ gọn, với mức giá tối ưu hơn rất nhiều so với giải pháp trung tâm dữ liệu truyền thống.
Papermaster cho rằng khi các mô hình AI ngày càng được tối ưu hóa để chạy hiệu quả hơn, người dùng cuối sẽ có thể trải nghiệm AI mạnh mẽ ngay trên thiết bị cá nhân – mà không cần phụ thuộc vào cloud hay GPU khổng lồ. Việc phát hành các mô hình như DeepSeek cũng cho thấy các ông lớn đang tìm kiếm giải pháp tiết kiệm và linh hoạt hơn thay vì tiếp tục “đốt tiền” vào hạ tầng khổng lồ.
Lập trường của AMD cũng không hẳn là mới. Trước đây, cựu CEO của Intel, Pat Gelsinger, từng nhấn mạnh rằng inference mới chính là tương lai. Lý do rất đơn giản: NVIDIA đã chiếm lĩnh gần như toàn bộ thị trường huấn luyện mô hình AI, và các đối thủ buộc phải tìm hướng đi khác nếu muốn tạo thế cạnh tranh. Với việc sớm tung ra các vi xử lý có khả năng inference tại thiết bị, AMD đang kỳ vọng lật ngược thế cờ – không bằng cách chơi theo luật của NVIDIA, mà bằng cách viết lại luật chơi mới.
Nguồn tin: https://genk.vn/amd-tuyen-bo-trung-tam-du-lieu-sap-loi-thoi-ai-se-nam-trong-tui-quan-ban-20250422142813927.chn