Chatbot đã biến văn bản thành giọng nói phổ biến, và vào tháng 11 năm 2022, nó có thể đã tạo ra một cuộc cách mạng trí tuệ nhân tạo. Tuy nhiên, việc duy trì hoạt động đã được chứng minh là rất đắt đỏ.
Báo cáo mới này được viết bởi Dylan Patel, nhà phân tích chính tại công ty nghiên cứu SemiAnalysis. Theo ông, chi phí để duy trì hoạt động của chatbot là khoảng 700.000 đô la mỗi ngày, hoặc 36 xu cho mỗi truy vấn.

Thực tế là chi phí rất cao đến mức mà Microsoft có thể đang phát triển một chip trí tuệ nhân tạo độc quyền riêng của mình để hỗ trợ việc duy trì hoạt động của ChatGPT, theo thông tin từ Windows Central.
Ngoài việc nhanh chóng thu hút được 100 triệu người dùng tích cực vào tháng 1, đây là một thành tựu mà các thương hiệu công nghệ trước đây mất nhiều năm để đạt được, ChatGPT đã gặp rất nhiều vấn đề về lưu lượng truy cập và dung lượng cao, làm chậm và gây sự cố máy chủ. Công ty đã cố gắng khắc phục vấn đề này bằng cách giới thiệu gói trả phí ChatGPT Plus, có giá 20 đô la mỗi tháng. Tuy nhiên, chưa có thông tin về số lượng người dùng đã đăng ký gói trả phí này.
Hiện nay, OpenAI đang sử dụng GPU Nvidia để duy trì không chỉ quy trình ChatGPT của riêng mình mà còn của các thương hiệu mà họ hợp tác. Các nhà phân tích trong ngành kỳ vọng rằng công ty có thể cần thêm 30.000 GPU từ Nvidia để duy trì hiệu suất thương mại trong thời gian còn lại của năm 2023.
Với Microsoft là một trong những cộng tác viên và nhà đầu tư chính, OpenAI có thể đang xem xét sử dụng công nghệ của Microsoft để giảm chi phí hoạt động cho ChatGPT. Theo Windows Central, Microsoft đã phát triển một con chip trí tuệ nhân tạo mang tên mã Athena, và hiện đang thử nghiệm nội bộ với các nhóm trong công ty. Dự kiến con chip này sẽ được giới thiệu vào năm tới cho dịch vụ Azure AI của Microsoft.
Hiện chưa có thông tin cụ thể về cách thức hoặc thời điểm mà con chip này sẽ được chuyển đến OpenAI và ChatGPT, nhưng có thể giả sử rằng việc đó sẽ xảy ra. Điều quan trọng là ChatGPT hiện đang được hỗ trợ bởi dịch vụ Azure. Mặc dù con chip trí tuệ nhân tạo có thể không thay thế hoàn toàn GPU Nvidia, nó có thể giúp giảm nhu cầu về phần cứng, từ đó giảm chi phí chạy ChatGPT, theo thông tin từ Windows Central.
Theo: xemnhanh.live