Sự trỗi dậy của trí tuệ nhân tạo sắp tạo ra một cuộc khủng hoảng năng lượng?
Nghiên cứu - Trao đổi - Ngày đăng : 10:34, 26/09/2024
Sự trỗi dậy của trí tuệ nhân tạo sắp tạo ra một cuộc khủng hoảng năng lượng?
Năng lượng điện hiện chiếm 40% đến 60% chi phí cơ sở hạ tầng của trung tâm dữ liệu và nhu cầu trí tuệ nhân tạo dự kiến sẽ khiến nhu cầu năng lượng tăng vọt trong vài năm tới.
Nhu cầu cao về các công cụ trí tuệ nhân tạo (genAI) đang thúc đẩy sự gia tăng đáng kể việc sử dụng GPU (bộ xử lý đồ họa - graphic processing unit) và TPU (bộ xử lý thiết kế riêng cho ứng dụng - tensor processing unit ), những thiết bị ngốn điện trong các trung tâm dữ liệu, một số đang mở rộng quy mô từ hàng chục nghìn lên hơn trăm nghìn đơn vị cho mỗi hệ thống máy chủ.
Với sự chuyển dịch sang điện toán đám mây và AI, các trung tâm dữ liệu mới đang ngày càng mở rộng về quy mô. Không có gì lạ khi thấy những cơ sở mới được xây dựng với công suất từ 100 đến 1.000 megawatt — tương đương với nhu cầu năng lượng của 80.000 đến 800.000 hộ gia đình, theo Viện nghiên cứu điện lực Mỹ (EPRI).
Mức tiêu thụ năng lượng liên quan đến AI dự kiến sẽ tăng khoảng 45% mỗi năm trong ba năm tới. Ví dụ, chatbot phổ biến nhất, ChatGPT của OpenAI, ước tính sử dụng khoảng 227 triệu kilowatt-giờ điện hàng năm để xử lý 78 tỷ truy vấn của người dùng.
Để thấy rõ hơn, theo một nghiên cứu, năng lượng mà ChatGPT sử dụng trong một năm có thể cung cấp điện cho 21.602 hộ gia đình tại Mỹ. Mặc dù con số này chỉ chiếm 0,02% trong số 131 triệu hộ gia đình tại Mỹ, nhưng đây vẫn là một con số đáng kinh ngạc, đặc biệt là khi Mỹ đứng thứ ba trên thế giới về số lượng hộ gia đình.
Theo báo cáo của EPRI, các mô hình GenAI thường tiêu tốn năng lượng hơn nhiều hơn đáng kể so với các ứng dụng truy xuất dữ liệu, phát trực tuyến và truyền thông, là những động lực chính thúc đẩy sự phát triển của trung tâm dữ liệu trong hai thập kỷ qua.
Với 2,9 watt-giờ cho mỗi yêu cầu ChatGPT, các truy vấn AI ước tính cần gấp 10 lần lượng điện so với các truy vấn Google truyền thống - mỗi truy vấn chỉ cần khoảng 0,3 watt-giờ; và những ứng dụng mới nổi đòi hỏi nhiều tính toán như tạo hình ảnh, âm thanh và video chưa từng có tiền lệ.
Hiện nay có gần 3.000 trung tâm dữ liệu tại Mỹ và con số này dự kiến sẽ tăng gấp đôi vào năm 2030. Trong khi các ứng dụng genAI ước tính chỉ sử dụng 10% đến 20% điện năng của trung tâm dữ liệu hiện nay, thì tỷ lệ phần trăm đó đang tăng nhanh chóng. EPRI cho biết là các trung tâm dữ liệu dự kiến sẽ tăng trưởng để tiêu thụ 4,6% đến 9,1% sản lượng điện hàng năm của Mỹ vào năm 2030 so với mức ước tính 4% hiện nay.
Dù chưa khủng hoảng, nhưng nhu cầu năng lượng đang tăng
Mặc dù mức tiêu thụ điện năng của các trung tâm dữ liệu dự kiến sẽ tăng gấp đôi vào năm 2028, theo nghiên cứu của IDC, nhưng đây vẫn chỉ là một tỷ lệ nhỏ trong tổng mức tiêu thụ năng lượng, chỉ 18%. Dù vậy, mức tiêu thụ năng lượng của trung tâm dữ liệu đang tăng 20% mỗi năm. Con số này rất đáng kể, nhưng vẫn chỉ chiếm 2,5% nhu cầu năng lượng toàn cầu.
Mỗi GPU trong một trung tâm dữ liệu AI có thể tiêu thụ hơn 400 watt điện trong khi đào tạo một mô hình ngôn ngữ lớn (LLM), là nền tảng thuật toán của các công cụ và nền tảng genAI. Điều đó có nghĩa là chỉ cần đào tạo một LLM như ChatGPT-3 có thể dẫn đến mức tiêu thụ điện lên tới 10 gigawatt-giờ (GWh). Con số này gần bằng mức tiêu thụ điện hàng năm của hơn 1.000 hộ gia đình.
Điều thú vị là việc đào tạo mô hình GPT-4, với 1 nghìn tỷ tham số đáng kinh ngạc của nó, đã cần tới 62,3 triệu kWh điện trong khoảng thời gian 100 ngày, con số này gấp 48 lần năng lượng tiêu thụ của GPT-3, trong khi GPT-3 chỉ sử dụng khoảng 1,3 triệu kWh trong 34 ngày.
Theo một nghiên cứu của Đại học Washington, có hàng trăm trung tâm dữ liệu như vậy trên khắp thế giới, chủ yếu do các công ty công nghệ lớn như Amazon, Microsoft và Google quản lý. Và lượng năng lượng mà họ sử dụng đang tăng nhanh chóng. Vào năm 2022, tổng mức tiêu thụ năng lượng của trung tâm dữ liệu AI tại Mỹ đã đạt 23 nghìn tỷ terawatt giờ (TWh) - một TWh biểu thị một nghìn tỷ watt điện được sử dụng trong một giờ.
Con số đó dự kiến sẽ tăng với tốc độ tăng trưởng hàng năm là 44,7% và sẽ đạt 146,2 TWh vào năm 2027, theo IDC Research. Đến thời điểm đó, mức tiêu thụ năng lượng của trung tâm dữ liệu AI dự kiến sẽ chiếm 18% tổng mức tiêu thụ năng lượng của trung tâm dữ liệu.
Doanh nhân công nghệ Elon Musk đã nói vào đầu năm nay rằng đến năm 2025 sẽ không có đủ năng lượng để đáp ứng nhu cầu cho những tiến bộ nhanh chóng của AI.
Hệ thống thanh toán hai lớp?
Theo một nghiên cứu của IDC mới được công bố, ngoài áp lực từ sự phát triển của genAI, giá điện còn tăng do động lực cung cầu, các quy định về môi trường, sự kiện địa chính trị và thời tiết khắc nghiệt do biến đổi khí hậu gây ra. IDC tin rằng giá điện cao trong năm năm qua có khả năng sẽ tiếp tục tăng, khiến chi phí vận hành các trung tâm dữ liệu đắt đỏ hơn đáng kể. Theo IDC, chi phí xây dựng một trung tâm dữ liệu dao động từ 6 triệu đến 14 triệu USD cho mỗi megawatt và tuổi thọ trung bình của mỗi trung tâm là từ 15 đến 20 năm.
Trong bối cảnh đó, các nhà cung cấp điện và các tiện ích khác đã lập luận rằng những người sáng tạo và lưu trữ AI nên được yêu cầu trả giá điện cao hơn - giống như các nhà cung cấp dịch vụ đám mây đã làm trước đây - vì họ đang thực hiện nhiều chu kỳ tính toán hơn và do đó, tốn năng lượng nhiều hơn so với những người dùng khác.
Các nhà điều hành trung tâm dữ liệu như Google, Amazon, Microsoft và Meta phản đối kế hoạch tăng giá điện, cho biết điện là chi phí lớn nhất để vận hành một trung tâm dữ liệu, chiếm từ 40% đến 60% chi phí cơ sở hạ tầng; việc thay đổi cấu trúc chi phí đó sẽ có "tác động to lớn" đến hoạt động kinh doanh của họ.
Ngay cả các nhà sản xuất chip cũng đang thận trọng theo dõi tình hình. Lo ngại về nhu cầu điện năng ngày càng tăng, Nvidia, Intel và AMD hiện đang nghiên cứu các bộ xử lý tiêu thụ ít năng lượng hơn như một cách để giúp giải quyết vấn đề. Ví dụ, Intel sẽ sớm bắt đầu tung ra thế hệ bộ tăng tốc AI tiếp theo, điều này sẽ chuyển trọng tâm khỏi khả năng tính toán và bộ nhớ truyền thống sang mức tiêu thụ điện năng trên mỗi chip.
Năng lượng hạt nhân như một lựa chọn
Trong khi đó, các nhà điều hành trung tâm dữ liệu AI đang chuyển sự chú ý của họ sang một nguồn năng lượng bất ngờ: năng lượng hạt nhân. Đầu năm nay, Amazon đã chi 650 triệu USD để mua một trung tâm dữ liệu từ Tesla, nơi chạy bằng 100% năng lượng hạt nhân từ một trong những nhà máy điện hạt nhân lớn nhất Hoa Kỳ.
Và mới đây, Microsoft đã công bố rằng họ đang thực hiện một thỏa thuận với Constellation Energy để mở lại nhà máy điện Three Mile Island ở Pennsylvania - nơi xảy ra vụ tai nạn hạt nhân tồi tệ nhất trong lịch sử Mỹ. Theo thỏa thuận, Microsoft sẽ mua 100% năng lượng từ Three Mile Island trong 20 năm tới để đáp ứng nhu cầu năng lượng AI khổng lồ của mình.
Vào tháng 7, Ban cố vấn năng lượng Mỹ đã công bố một báo cáo về việc cung cấp năng lượng cho AI và các trung tâm dữ liệu; báo cáo đưa ra 16 khuyến nghị về cách có thể hỗ trợ nhu cầu ngày càng tăng một cách đáng tin cậy và giá cả phải chăng. Báo cáo xem xét động lực năng lượng để đào tạo mô hình AI, tính linh hoạt trong vận hành cho các nhà điều hành trung tâm dữ liệu và tiện ích, cũng như những công nghệ lưu trữ và tạo năng lượng đầy hứa hẹn để đáp ứng nhu cầu tăng trưởng tải. Báo cáo còn đề cập đến việc nâng cấp và cấp phép lại các cơ sở hạt nhân và thủy điện hiện có và trình diễn các công nghệ sạch.