Chatbot AI đang bùng nổ với hàng trăm triệu người dùng mỗi ngày, nhưng phía sau sự tiện lợi ấy là mức tiêu thụ điện năng khổng lồ, đặt ra lo ngại về tính bền vững.

Chỉ trong vài năm gần đây, ChatGPT đã bùng nổ về mức độ phổ biến, với gần 200 triệu người dùng nhập vào hơn một tỷ lệnh yêu cầu mỗi ngày. Những phản hồi tưởng chừng như được xử lý “từ không khí” ấy thực ra lại tiêu tốn một nguồn năng lượng khổng lồ phía sau hậu trường.

Năm 2023, các trung tâm dữ liệu — nơi đào tạo và vận hành AI — chiếm tới 4,4% lượng điện năng tiêu thụ tại Mỹ. Trên toàn cầu, con số này vào khoảng 1,5% tổng nhu cầu điện. Dự báo đến năm 2030, mức tiêu thụ sẽ tăng gấp đôi khi nhu cầu AI tiếp tục leo thang.

“Chỉ ba năm trước, chúng ta thậm chí còn chưa có ChatGPT,” ông Alex de Vries-Gao, nhà nghiên cứu về tính bền vững của công nghệ mới tại Đại học Vrije Amsterdam và là người sáng lập Digiconomist, một nền tảng chuyên phân tích những hệ quả ngoài ý muốn của xu hướng số, cho biết. “Vậy mà giờ đây, chúng ta đang nói về một công nghệ có khả năng chiếm gần một nửa lượng điện tiêu thụ của các trung tâm dữ liệu trên toàn thế giới.”

Đặt một câu hỏi cho một mô hình ngôn ngữ lớn (LLM) tiêu tốn lượng điện gấp khoảng 10 lần so với một lượt tìm kiếm Google thông thường. (Ảnh: Qi Yang/Getty Images)

Đặt một câu hỏi cho một mô hình ngôn ngữ lớn (LLM) tiêu tốn lượng điện gấp khoảng 10 lần so với một lượt tìm kiếm Google thông thường. (Ảnh: Qi Yang/Getty Images)

Điều gì khiến các chatbot AI tiêu tốn nhiều năng lượng đến vậy? Câu trả lời nằm ở quy mô khổng lồ của chúng. Theo giáo sư khoa học máy tính Mosharaf Chowdhury tại Đại học Michigan, có hai giai đoạn đặc biệt “ngốn điện” nhất: Quá trình huấn luyện và quá trình suy luận (inference).

“Tuy nhiên, vấn đề là các mô hình ngày nay đã quá lớn, đến mức không thể chạy trên một bộ xử lý đồ họa GPU duy nhất, thậm chí không thể gói gọn trong một máy chủ,” giáo sư Mosharaf Chowdhury giải thích với Live Science.

Để hình dung quy mô, nghiên cứu năm 2023 của de Vries-Gao cho thấy một máy chủ Nvidia DGX A100 có thể tiêu thụ tới 6,5 kilowatt điện. Việc huấn luyện một LLM thường đòi hỏi nhiều máy chủ, mỗi máy gồm trung bình 8 GPU, hoạt động liên tục trong nhiều tuần hoặc thậm chí nhiều tháng. Tổng cộng, lượng điện tiêu thụ là cực lớn: Chỉ riêng quá trình huấn luyện GPT-4 của OpenAI đã ngốn tới 50 gigawatt-giờ, tương đương lượng điện đủ để cung cấp cho toàn bộ San Francisco trong ba ngày.

Quá trình huấn luyện GPT-4 của OpenAI đủ để cung cấp điện cho toàn bộ San Francisco trong ba ngày. (Ảnh: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Quá trình huấn luyện GPT-4 của OpenAI đủ để cung cấp điện cho toàn bộ San Francisco trong ba ngày. (Ảnh: Jaap Arriens/NurPhoto/Rex/Shutterstock)

 

Quá trình suy luận (inference) cũng tiêu hao năng lượng không kém. Đây là lúc chatbot AI sử dụng kiến thức đã học để đưa ra câu trả lời cho người dùng. Mặc dù suy luận đòi hỏi ít tài nguyên tính toán hơn so với giai đoạn huấn luyện, nhưng nó vẫn cực kỳ tốn điện vì số lượng yêu cầu gửi đến chatbot quá lớn.

Tính đến tháng 7/2025, OpenAI cho biết người dùng ChatGPT gửi hơn 2,5 tỷ yêu cầu mỗi ngày. Để đáp ứng tức thời, hệ thống phải huy động nhiều máy chủ hoạt động cùng lúc. Và đó mới chỉ tính riêng ChatGPT, chưa kể các nền tảng khác cũng đang phổ biến rộng rãi, như Gemini của Google, vốn được kỳ vọng sớm trở thành lựa chọn mặc định khi người dùng truy cập Google Search.

“Ngay cả trong giai đoạn suy luận, bạn cũng không thể thực sự tiết kiệm năng lượng,” Chowdhury nhận định. “Vấn đề không phải là dữ liệu khổng lồ nữa. Mô hình thì đã rất lớn, nhưng cái lớn hơn là số lượng người dùng.”

Các nhà nghiên cứu như Chowdhury và de Vries-Gao hiện đang tìm cách đo lường chính xác hơn mức tiêu thụ điện năng, từ đó tìm giải pháp cắt giảm. Chẳng hạn, Chowdhury duy trì một bảng xếp hạng có tên ML Energy Leaderboard, theo dõi mức tiêu thụ năng lượng trong suy luận của các mô hình mã nguồn mở.

Tuy nhiên, phần lớn số liệu liên quan đến các nền tảng AI tạo sinh thương mại vẫn là “bí mật”. Các tập đoàn lớn như Google, Microsoft hay Meta hoặc giữ kín, hoặc chỉ công bố thống kê rất mơ hồ, khó phản ánh đúng tác động môi trường. Điều này khiến việc xác định AI thực sự tiêu thụ bao nhiêu điện, nhu cầu sẽ ra sao trong những năm tới, và liệu thế giới có đáp ứng nổi hay không trở nên rất khó khăn.

Dù vậy, người dùng hoàn toàn có thể tạo áp lực đòi hỏi sự minh bạch. Điều này không chỉ giúp mỗi cá nhân đưa ra lựa chọn có trách nhiệm hơn khi sử dụng AI, mà còn góp phần thúc đẩy các chính sách buộc doanh nghiệp phải chịu trách nhiệm.

“Một trong những vấn đề cốt lõi của các ứng dụng số là tác động môi trường luôn bị che giấu,” nhà nghiên cứu de Vries-Gao nhấn mạnh. “Giờ quả bóng nằm trong tay các nhà làm chính sách: họ phải khuyến khích công khai dữ liệu để người dùng có thể hành động.”

https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html

Ngọc Nguyên(Live Science) / VTC News