Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

Có thể, Microsoft Maia/Cobalt 100 chính là sản phẩm của dự án Athena, nỗ lực giúp Microsoft bớt phụ thuộc vào Nvidia với những GPU phục vụ riêng cho thị trường xử lý AI như A100 hay mới nhất vừa được giới thiệu là H200 kiến trúc Hopper.

Rõ ràng không có gì sánh được bằng những chip xử lý được thiết kế chuyên biệt cho từng tác vụ. Microsoft cũng hiểu điều đó. Vài năm qua đã có tin đồn nói rằng họ đang trong quá trình phát triển chip silicon phục vụ riêng nhu cầu xử lý thuật toán AI. Tin đồn hóa ra là sự thật, khi trong tuần vừa qua, trong khuôn khổ sự kiện Ignite 2023, Microsoft đã công bố tận 2 con chip kiến trúc ARM, dự kiến từ năm sau sẽ ứng dụng trong những máy chủ đám mây Azure để vận hành những dịch vụ AI như Microsoft Copilot.

Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

Đầu tiên, chip tăng tốc xử lý AI Microsoft Azure Maia 100 được tạo ra chỉ để phục vụ một mục đích duy nhất: Đạt hiệu năng xử lý mạnh nhất khi vận hành những mô hình ngôn ngữ quy mô lớn (LLM) như GPT-3.5 Turbo hay phức tạp hơn là GPT-4. Con chip này được TSMC gia công trên tiến tình 5nm, die silicon không dưới 105 tỷ transistor. Sức mạnh của Maia 100 cho phép hỗ trợ những format sub-8-bit để train mô hình ngôn ngữ cũng như vận hành nội suy, ứng dụng mô hình ngôn ngữ cho chatbot hay những dịch vụ như Copilot hay Bing Chat.

Để tiện so sánh, chip xử lý AI mạnh nhất thế giới hiện giờ, trước khi H200 ra mắt chính là H100, trang bị 80 tỷ transistor trên bề mặt die. Instinct MI300X sắp bán ra thị trường của AMD thì có tận 153 tỷ transistor. Còn về mặt hiệu năng, Microsoft hoàn toàn không công bố sức mạnh xử lý số thực dấu phẩy động FP32 hay FP64, mà chỉ cho biết chip Maia 100 có băng thông bộ nhớ lên tới 4.8 terabit/s, nhờ vào giao thức kết nối dựa trên nền Ethernet, giúp mở rộng quy mô máy chủ đám mây cũng như hiệu năng xử lý.

Quá trình hợp tác đầu tư giữa Microsoft và OpenAI cũng được cho là đã góp phần giúp Microsoft hoàn thiện Maia 100. Microsoft đã được làm việc cùng các nhà phát triển LLM bên OpenAI để tối ưu kiến trúc và thử nghiệm những mô hình GPT trên bản thử nghiệm của những con chip chuyên biệt. Nhờ đó, đối với Microsoft, điều này sẽ giúp tối ưu hiệu năng kiến trúc AI của dịch vụ đám mây Azure. Về phần OpenAI, nhờ Maia 100, họ sẽ có thể huấn luyện những mô hình ngôn ngữ mới trên những hệ thống có chi phí thấp hơn nhiều so với những giải pháp của Nvidia hay AMD.

Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

Con chip thứ hai, Cobalt 100 là một CPU 128 nhân 64-bit dựa trên kiến trúc Neoverse Compute Subsystems của ARM. Microsoft cho biết, nhờ CPU này điều khiển hệ thống, cải thiện hiệu năng trên những hệ thống xử lý đám mây Azure sẽ tăng 40%, nhưng là so sánh với những máy chủ trang bị chip ARM thế hệ hiện giờ. Những dịch vụ mà Cobalt 100 sẽ được tận dụng để vận hành bao gồm Microsoft Teams hay dịch vụ hệ điều hành đám mây Windows 365.

Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

Giám đốc mảng hệ thống kiến trúc Azure của Microsoft, bà Rani Borkar cho biết, chip tự phát triển của hãng là thành quả nghiên cứu và kinh nghiệm trong suốt 2 thập kỷ đồng phát triển những chip xử lý cho máy game Xbox hay máy tính bảng Surface. Cobalt 100 cho phép Microsoft kiểm soát hiệu năng và tiêu thụ điện theo từng nhân, từ đó xây dựng được một cụm máy chủ thực sự tiết kiệm chi phí vận hành. 

Hình trên là giải pháp minh họa cho hệ thống trang bị chip Maia 100 và Cobalt 100. Microsoft đã phải thiết kế ra cả một hệ thống tản nhiệt và từng rack server riêng, để có nhiều không gian cho cáp điện và cáp mạng. Với hệ thống này, chi phí vận hành thấp hơn nhiều so với những hệ thống máy chủ trang bị CPU và GPU của AMD và Nvidia. Hiện tại chi phí phát triển, huấn luyện và vận hành nội suy mô hình ngôn ngữ vẫn đang rất cao, quy mô người dùng càng lớn thì chi phí càng cao. Ước tính vận hành chatbot AI có chi phí cao gấp 10 lần so với vận hành một công cụ tìm kiếm trực tuyến. Làm chip custom phục vụ riêng từng nhu cầu xử lý cụ thể vừa giải quyết được những vấn đề liên quan tới nguồn cung chip AI, vừa giúp Microsoft có được lợi thế khi thị trường xử lý AI càng lúc càng nóng lên. Những đơn vị như Amazon, Meta và Google giờ cũng đã có chip xử lý riêng. Những công ty nghiên cứu khác như Ampere thì đang mơ ước trở thành nhà cung cấp chip data center kiến trúc ARM lớn trong tương lai.

Dù đã có Maia 100 và Cobalt 100, nhưng trong tương lai gần, Microsoft vẫn sẽ tiếp tục ứng dụng chip xử lý của các hãng khác, bao gồm cả H200 vừa được Nvidia công bố cách đây ít ngày trong những máy chủ Azure xử lý thuật toán AI và mô hình ngôn ngữ.

Theo Techspot

 

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *