Nhu cầu năng lượng đáng lo ngại của AI
(DNTO) - Nhu cầu tiêu thụ điện ngày càng tăng của các trung tâm dữ liệu phục vụ AI đang gây sức ép lên cơ sở hạ tầng năng lượng, gây lo ngại cho công cuộc giảm khí thải và chuyển đổi năng lượng sạch.
Mặc dù còn quá sớm để đưa ra kết luận, nhưng hiện tại ai cũng có thể nhận thấy công nghệ AI đang có tác động sâu sắc đến nhu cầu năng lượng trên toàn thế giới, dẫn đến gia tăng lượng khí thải và vẫn chưa có một giải pháp nào ổn thỏa.
Nguyên do cụ thể của vấn đề này là các trung tâm xử lý dữ liệu AI có nhu cầu tiêu thụ điện rất lớn. Những trung tâm này vận hành hàng loạt thiết bị gọi là đơn vị xử lý đồ họa hay GPU, được sử dụng để đào tạo các mô hình ngôn ngữ lớn và các thao tác như trả lời các truy vấn của ChatGPT. Việc này đòi hỏi nhiều năng lượng hơn các thiết bị máy tính thông dụng và tỏa ra nhiều nhiệt hơn.
Với việc ngày càng có nhiều trung tâm dữ liệu được đưa vào vận hành, dự đoán cho thấy lượng năng lượng cần thiết để cung cấp cho làn sóng AI đang tăng không phanh.
Một nghiên cứu cho thấy AI có thể chiếm 0,5% lượng điện sử dụng trên toàn thế giới vào năm 2027, hoặc gần bằng lượng điện mà Argentina sử dụng trong một năm. Các nhà phân tích tại Wells Fargo cho rằng nhu cầu điện của Mỹ có thể tăng 20% vào năm 2030, một phần do AI. Goldman Sachs dự đoán rằng các trung tâm dữ liệu sẽ chiếm 8% mức sử dụng năng lượng của Hoa Kỳ vào năm 2030, tăng từ mức chỉ 3% hiện nay.
Ben Inskeep, giám đốc chương trình của Citizens Action Coalition, một nhóm giám sát người tiêu dùng có trụ sở tại Indiana đang theo dõi tác động năng lượng của các trung tâm dữ liệu, cho biết: “Đó thực sự là một mức tăng trưởng có tầm vóc vô cùng lớn”.
Microsoft, Google, Amazon và Meta gần đây đều đã công bố kế hoạch xây dựng các trung tâm dữ liệu mới ở Indiana, những diễn biến mà Inskeep cho biết sẽ gây sức ép cho mạng lưới cung cấp điện.
Ông nói: “Chúng tôi không có đủ năng lượng để đáp ứng nhu cầu dự kiến của các trung tâm dữ liệu trong vòng 5 đến 10 năm tới. Chúng tôi sẽ cần xây dựng bổ sung tài nguyên nhiều hơn nữa.”
Những gã khổng lồ công nghệ đang cố gắng kiểm soát việc sử dụng năng lượng của họ. Trong thập kỷ nay, bốn công ty này đã đi đầu trong các nỗ lực hướng tới một tương lai bền vững, thân thiện với môi trường hơn.
Nhưng chỉ trong vài tháng qua, nhu cầu năng lượng từ AI đã khiến sự việc trở nên phức tạp hơn. Lượng khí thải của Google năm ngoái cao hơn 48% so với năm 2019, phần lớn là do các trung tâm dữ liệu. Lượng khí thải của Microsoft cũng tăng vọt vì những lý do tương tự, cụ thể tăng 29% vào năm ngoái so với năm 2020. Và lượng khí thải của Meta đã tăng 66% từ năm 2021 đến năm 2023.
Có hai cách để các công ty công nghệ đáp ứng nhu cầu của AI: Khai thác mạng lưới điện hiện có hoặc xây dựng các nhà máy điện mới. Mỗi phương thức đều có những thách thức khác nhau.
Ở Tây Virginia, các nhà máy điện đốt than vốn đã được xếp lịch “nghỉ hưu” đang được duy trì hoạt động nhằm đáp ứng nhu cầu năng lượng của các trung tâm dữ liệu gần Virginia.
Và trên khắp nước Mỹ, các công ty điện lực đang xây dựng cơ sở hạ tầng khí đốt tự nhiên mới để hỗ trợ các trung tâm dữ liệu. Goldman Sachs dự đoán rằng “mức tiêu thụ điện năng gia tăng của trung tâm dữ liệu ở Mỹ sẽ thúc đẩy nhu cầu khí đốt tự nhiên lên khoảng 3,3 tỷ feet khối mỗi ngày vào năm 2030, điều này sẽ đòi hỏi phải xây dựng cơ sở hạ tầng mới.”
Đồng thời, các hãng khổng lồ ngành công nghệ đang nỗ lực chuẩn bị thêm nhiều giải pháp năng lượng khác để thúc đẩy sự phát triển của AI.
Microsoft đang thực hiện kế hoạch trị giá 10 tỷ USD để phát triển năng lượng tái tạo. Amazon cho biết họ đã sử dụng 100% năng lượng sạch vào năm ngoái, mặc dù các chuyên gia đặt câu hỏi liệu hạch toán của công ty này có quá lỏng lẻo hay không.
Tất cả các giải pháp năng lượng thải carbon thấp đều tốt. Nhưng khi chính các công ty công nghệ này lại là nguyên do làm tăng nhu cầu tiêu thụ thì nó lại phá bỏ lợi ích mà các nỗ lực năng lượng sạch mang lại.
Theo báo cáo, Microsoft và OpenAI đang lên kế hoạch xây dựng một trung tâm dữ liệu trị giá 100 tỷ USD. Báo cáo ban đầu cho thấy nó có thể cần 5 gigawatt điện, hoặc gần tương đương với 5 lò phản ứng hạt nhân.
Đồng thời, nhiều loại chip xử lý phục vụ AI đang ngày càng ngốn nhiều năng lượng hơn. Nvidia, công ty dẫn đầu về chip AI, gần đây đã tiết lộ các sản phẩm mới có thể tiêu thụ nhiều năng lượng hơn.
Sự bùng nổ AI đang tạo ra lợi nhuận lớn cho một số công ty, và nó có thể mang lại những đột phá trong công nghệ năng lượng sạch. Tuy nhiên, hiện tại các trung tâm dữ liệu đang gây hại nhiều hơn là có lợi cho môi trường.
Inskeep cho biết: “Đây chắc chắn là điều rất đáng lo ngại khi ta đang trong quá trình chuyển đổi mạng lưới điện hiện tại sang năng lượng tái tạo… Việc thêm một lượng tải mới như thế sẽ đe dọa nghiêm trọng cho nỗ lực nâng cấp ngành năng lượng”.