Theo các tài liệu nội bộ, Amazon đang phải vật lộn cạnh tranh với chip AI thống trị của Nvidia, trong bối cảnh doanh thu mảng kinh doanh đám mây hàng trị giá triệu USD đối mặt nhiều rủi ro.
Một số chuyên gia cho rằng, gã khổng lồ đám mây này đang tụt hậu trong cuộc đua AI sáng tạo. Bản thân các công ty công nghệ lớn như Microsoft, OpenAI, Google, Meta và Amazon cũng sẽ khó có thể phá vỡ vị thế thống trị của Nvidia trên thị trường rộng lớn và quan trọng này.
“Tôi không biết ai sử dụng chip AWS của Amazon với số lượng lớn”, nhà phân tích chip kỳ cựu Stacy Rasgon của Bernstein Research cho biết.
Amazon Web Services (AWS) vốn là công ty đám mây hàng đầu. Sự thành công, đặc biệt là khả năng sinh lời, chủ yếu dựa vào hoạt động thiết kế chip trung tâm dữ liệu của riêng thay vì chi tiền cho Intel để mua những linh kiện đắt đỏ.
Trong kỷ nguyên AI thế hệ mới, Amazon đang cố gắng lặp lại điều này một lần nữa bằng cách tạo ra chip AI của riêng mình, được gọi là Trainium và Inferentia. Mục tiêu nhằm tránh phải mua GPU của Nvidia trong khi vẫn có thể cung cấp cho khách hàng đám mây các dịch vụ AI mạnh mẽ. Nỗ lực được Amazon thực hiện ít nhất 4 năm trở lại đây song chưa thực sự hiệu quả bởi ngành công nghệ nói chung đã quá quen với nền tảng CUDA của Nvidia.
Theo một trong những tài liệu nội bộ, năm ngoái, tỷ lệ sử dụng chip Trainium trong số những khách hàng lớn nhất của AWS chỉ bằng 0,5% GPU của Nvidia. Inferentia, một con chip AWS khác, khá hơn một chút với tỷ lệ 2,7%. Đánh giá này tính toán mức độ sử dụng các loại chip AI khác nhau thông qua dịch vụ đám mây của AWS.
Mọi thứ khá mâu thuẫn với triển vọng lạc quan mà các giám đốc điều hành Amazon từng chia sẻ. Trong cuộc họp báo cáo thu nhập vào tháng 4, Giám đốc điều hành Andy Jassy cho biết nhu cầu đối với silicon tùy chỉnh của AWS là “khá cao”. Một số khách hàng tiềm năng có thể kể đến như Snap, Airbnb và Anthropic.
Được biết hoạt động kinh doanh chip của Amazon bắt đầu một cách nghiêm túc khi mua lại công ty khởi nghiệp Annapurna Labs vào năm 2015 với giá khoảng 350 triệu USD. Thương vụ giúp gã khổng lồ công nghệ tự thiết kế chip cho riêng mình.
“Sự phấn khích của khách hàng ngày càng tăng đối với chip Trainium mới nhất”, đại diện AWS nói đồng thời cho biết thêm rằng, các chip AI của AWS vẫn còn tương đối mới.
“Chúng tôi được thúc đẩy nhờ những tiến bộ đạt được với các chip AI tùy chỉnh. Xây dựng phần cứng tuyệt vời là một khoản đầu tư dài hạn”.
Trong nội bộ Amazon, nền tảng CUDA của Nvidia luôn được coi là rào cản lớn nhất cho sáng kiến chip AI. Ra mắt vào năm 2006, CUDA là một hệ sinh thái gồm các công cụ dành cho nhà phát triển, thư viện AI và ngôn ngữ lập trình giúp việc sử dụng GPU của Nvidia trở nên dễ dàng hơn. Sự khởi đầu thuận lợi của CUDA đã mang lại cho Nvidia một nền tảng cực kỳ hấp dẫn, nền tảng mà nhiều người coi là ‘nước sốt bí mật’ đằng sau sự thành công của công ty.
Trong một tuyên bố, Amazon chỉ mong đợi việc áp dụng chip AI ở mức khiêm tốn trừ khi nền tảng phần mềm của riêng họ, AWS Neuron, có thể đạt được “sự cải tiến ngang bằng CUDA”.
Theo BI, Neuron được thiết kế để giúp các nhà phát triển dễ dàng xây dựng hơn trên các chip AI của AWS, song thiết lập hiện tại lại “ngăn cản việc di chuyển từ NVIDIA CUDA”. Meta, Netflix và một số công ty khác đã yêu cầu AWS Neuron hỗ trợ song song dữ liệu được phân chia hoàn toàn (FSDP), một loại thuật toán đào tạo dữ liệu cho GPU. Nếu không, các công ty này sẽ không cân nhắc sử dụng chip Trainium.
Theo Giám đốc điều hành Snowflake Sridhar Ramaswamy, việc quá quen thuộc với CUDA khiến công cuộc chuyển đổi sang GPU khác trở nên khó khăn. Việc đào tạo các mô hình AI rất tốn kém và mất thời gian, vậy nên bất kỳ trục trặc nào cũng có thể gây ra sự chậm trễ tốn kém. Chọn thứ mình biết rõ – trong trường hợp này là CUDA – là điều mà rất nhiều nhà phát triển AI lựa chọn.
Đáp lại, người phát ngôn của Amazon nói với BI rằng AWS đang cung cấp cho khách hàng “sự lựa chọn và tính linh hoạt để sử dụng những gì phù hợp nhất” thay vì buộc phải chuyển đổi. Mục tiêu của AWS với Neuron không nhất thiết là tạo ra sự ngang bằng với CUDA.
Theo BI, chip Inferentia khá tụt hậu so về hiệu suất và hiệu quả chi phí. Tài liệu cảnh báo việc không thể thay thế nhu cầu GPU Nvidia của khách hàng bằng các dịch vụ của AWS sẽ dẫn đến rủi ro các dịch vụ bị trì hoãn.
Đầu năm nay, nhóm bán lẻ của Amazon đã sử dụng một cụm GPU Nvidia, bao gồm V100, A10 và A100, để xây dựng mô hình cho công cụ tạo hình ảnh AI mới. Vào tháng 1, James Hamilton, một SVP của Amazon cho biết một trong những dự án của ông đã sử dụng 13.760 GPU Nvidia A100.
Không rõ các chip AWS AI đang hoạt động như thế nào bởi Amazon không chia nhỏ doanh số mảng đám mây cụ thể. Trước đó vào tháng 4, CEO Jassy tiết lộ mảng sản phẩm AI của mình đang trên đà tạo ra doanh thu “nhiều tỷ USD” trong năm nay. Điều này rất quan trọng đối với AWS vì tốc độ tăng trưởng của hãng đã chững lại trong những năm gần đây.
Amazon đang gấp rút chạy đua cùng AI – điều mà “bậc thầy công nghệ” về kho bãi và vận chuyển này lẽ ra phải là người khởi xướng. Trước đó, tập đoàn đã tạo ra cú hích thương mại khổng lồ trên internet bằng cách bán sách trực tuyến vào năm 1990, cách mạng hóa thói quen đọc với Kindle và dùng AWS để khởi động ngành công nghiệp điện toán.
“Amazon thực sự lo sợ mình sẽ chậm chân”, một nhân viên giấu tên nói.
Trong một email gửi tới Insider, đại diện công ty cho biết Amazon đã ứng dụng máy học và trí tuệ nhân tạo trong suốt hơn 25 năm. Công ty vì thế vẫn lạc quan với triển vọng của mình.
“Amazon đang dẫn đầu toàn ngành về công nghệ. Mảng kinh doanh điện toán AWS của chúng tôi có nhiều khách hàng, đối tác. Chúng tôi cũng đang đầu tư vào trí tuệ nhân tạo trên mọi lĩnh vực”, đại diện Amazon cho biết.
Theo BI, Amazon đang ráo riết tìm cách tận dụng sự bùng nổ của chatbot AI, trong đó có việc đẩy nhanh năng suất, bắt đầu các dự án AI mới và thúc đẩy các dịch vụ điện toán đám mây. Một số nhân viên thậm chí còn đề xuất tích hợp ChatGPT vào quy trình sáng tạo của Amazon.
Trong tài liệu “Phân tích cơ hội và sức ảnh hưởng của AI-ChatGPT sáng tạo”, thành viên nhóm bán hàng cho biết họ có thể sử dụng công nghệ mới để nhanh chóng tìm kiếm các báo cáo tài chính và đối thủ cạnh tranh nhằm tìm ra mục tiêu chiến lược. Các chatbot cũng có thể giúp phân tích cảm nghĩ, nhu cầu của khách hàng đối với một sản phẩm, từ đó cải thiện chất lượng chăm sóc hậu mãi cho người mua. Ngoài ra, chúng còn dự đoán được xu hướng và những nội dung có thể trở nên viral.
Đối với AWS, ChatGPT giúp tự động tính toán chi phí dịch vụ đám mây cho khách hàng. Nhóm Fresh kỳ vọng một ngày nào đó có thể cung cấp danh sách mua sắm dựa trên sự trợ giúp của ChatGPT.
“ChatGPT giúp khắc phục sự cố và tăng năng suất về lâu về dài bằng cách giảm những công việc tay chân cần thiết”, tài liệu nêu rõ.
Theo: BI, FT
Nguồn tin: https://genk.vn/amazon-co-4-nam-van-khong-the-vuot-nvidia-la-cong-ty-dam-may-hang-dau-nhung-doanh-thu-dang-giam-muon-tao-chip-ai-cua-rieng-nhung-hieu-qua-chua-lon-20240529140312213.chn