Trong thời đại công nghệ số hiện nay, chatbot AI đã trở thành một phần không thể thiếu trong cuộc sống hàng ngày của chúng ta. Tuy nhiên, ít ai biết rằng việc sử dụng các chatbot này lại tiêu tốn một lượng năng lượng khổng lồ. Điều này không chỉ ảnh hưởng đến chi phí vận hành mà còn đặt ra những thách thức về môi trường mà chúng ta cần phải đối mặt.
Chatbot AI đang ngày càng trở nên phổ biến và được ứng dụng rộng rãi trong nhiều lĩnh vực khác nhau. Ảnh: Caltech
Theo thông tin từ một nghiên cứu gần đây, các chatbot trí tuệ nhân tạo đang tiêu thụ một lượng điện năng đáng kể. Năm 2023, các trung tâm dữ liệu phục vụ cho việc huấn luyện và xử lý AI đã chiếm tới 4,4% tổng lượng điện tiêu thụ tại Mỹ và 1,5% trên toàn cầu. Dự báo rằng con số này sẽ tăng gấp đôi vào năm 2030 khi nhu cầu về AI ngày càng gia tăng. Theo Mosharaf Chowdhury, một nhà khoa học máy tính tại Đại học Michigan, nguyên nhân chính dẫn đến việc tiêu tốn năng lượng lớn là do quy mô khổng lồ của các mô hình AI, đặc biệt trong giai đoạn huấn luyện và suy luận.
Để phát triển một chatbot AI hiệu quả, các mô hình ngôn ngữ lớn (LLM) cần được cung cấp một lượng dữ liệu khổng lồ. Điều này giúp AI có thể học hỏi, nhận diện các mẫu lặp lại và đưa ra dự đoán chính xác hơn. Alex de Vries-Gao, một nhà nghiên cứu về tính bền vững công nghệ tại Đại học Vrije Amsterdam, cho biết rằng việc cung cấp nhiều dữ liệu hơn trong quá trình huấn luyện sẽ giúp mô hình đưa ra những dự đoán tốt hơn.
Nghiên cứu gần đây cho thấy một máy chủ Nvidia DGX A100 có thể tiêu tốn tới 6,5 kilowatt điện. Quá trình huấn luyện các mô hình lớn thường yêu cầu nhiều máy chủ, mỗi máy chủ có từ 8 GPU trở lên, hoạt động liên tục trong nhiều tuần hoặc thậm chí nhiều tháng, dẫn đến việc tiêu thụ năng lượng rất lớn. Chẳng hạn, việc huấn luyện GPT-4 đã tiêu tốn khoảng 50 gigawatt-giờ điện, tương đương với lượng điện mà thành phố San Francisco sử dụng trong 3 ngày.
Không chỉ trong giai đoạn huấn luyện, quá trình suy luận của chatbot AI cũng tiêu tốn một lượng điện năng đáng kể. Mặc dù việc chạy LLM sau khi đã huấn luyện cần ít tài nguyên máy tính hơn, nhưng số lượng câu hỏi mà người dùng gửi đến vẫn tạo ra một áp lực lớn lên hệ thống. Tính đến tháng 7, người dùng ChatGPT đã gửi hơn 2,5 tỷ câu hỏi mỗi ngày, buộc các nhà phát triển phải sử dụng nhiều máy chủ để đảm bảo phản hồi nhanh chóng.
Các nhà nghiên cứu như Chowdhury và de Vries-Gao đang nỗ lực tìm ra cách để định lượng chính xác hơn nhu cầu năng lượng của các mô hình AI, từ đó tìm ra các giải pháp tiết kiệm điện. Ví dụ, Chowdhury đã tạo ra một bảng xếp hạng theo dõi mức tiêu thụ năng lượng từ quá trình suy luận của các mô hình mã nguồn mở.
Tuy nhiên, thông tin về nhu cầu năng lượng của các nền tảng AI khác vẫn còn rất hạn chế, do nhiều công ty lớn như Google, Microsoft và Meta không công bố dữ liệu hoặc cung cấp thông tin khó xác định. Điều này khiến cho việc đánh giá mức tiêu thụ năng lượng thực sự của AI trở nên khó khăn. Người dùng chatbot AI có thể góp phần thúc đẩy tính minh bạch bằng cách lựa chọn sử dụng AI một cách có trách nhiệm hơn.
An Khang (Theo Live Science)