Sự trỗi dậy của trí tuệ nhân tạo (AI) đang thúc đẩy quá trình mở rộng và nâng cấp liên tục của các trung tâm dữ liệu. Mức tiêu thụ điện năng cũng tăng tương ứng và nhu cầu về nguồn điện khổng lồ sẽ ngày càng tăng.

robot
(Ảnh minh họa: Blue Planet Studio/Shutterstock)

Đào tạo AI gây tiêu hao năng lượng

Các mô hình AI lớn là sản phẩm của sự kết hợp giữa “dữ liệu lớn + sức mạnh tính toán lớn + thuật toán mạnh”, vậy cần bao nhiêu điện để đào tạo một mô hình AI lớn?

Lấy mô hình ngôn ngữ lớn GPT-3 do Open AI phát triển làm ví dụ, có 175 tỷ tham số. Để đào tạo, các nhà nghiên cứu đã chạy 1.024 GPU (bộ xử lý đồ họa) liên tục trong khoảng một tháng.

Ông Mosharaf Chowdhury, phó giáo sư kỹ thuật điện và khoa học máy tính tại Đại học Michigan, ước tính rằng việc huấn luyện GPT-3 tiêu thụ 1.287 megawatt giờ điện mỗi lần (1 megawatt giờ tương đương 1.000 kilowatt giờ điện). Con số này tương đương với mức tiêu thụ điện trung bình của một hộ gia đình Mỹ trong 120 năm.

GPT-3 đã được ra mắt cách đây 4 năm và hiện nay kích thước tham số của các mô hình ngôn ngữ lớn đang tăng theo cấp số nhân. Theo báo cáo, GPT-4 ra mắt vào năm 2023 có tổng cộng 1,76 nghìn tỷ tham số, gấp 10 lần GPT-3. GPT-5, dự kiến ​​​​sẽ ra mắt vào năm tới, có tốc độ nhanh hơn và khả năng xử lý ngôn ngữ mạnh hơn, đồng thời mức tiêu thụ năng lượng đào tạo của nó dự kiến ​​​​sẽ còn đáng kể hơn.

Suy luận và ứng dụng về tiêu thụ điện

Đào tạo AI trong giai đoạn đầu chỉ là một sự kiện ngắn hạn và việc sử dụng là một quá trình lâu dài. Khi các ứng dụng trở nên phổ biến hơn và số lượng người dùng tăng lên, mức tiêu thụ điện năng sẽ tiếp tục tăng.

Một báo cáo được công bố vào tháng Một năm nay bởi Cơ quan Năng lượng Quốc tế (IEA), một tổ chức quốc tế liên chính phủ có trụ sở tại Paris, Pháp, cho biết ChatGPT tiêu thụ trung bình 2,9 watt điện mỗi giờ để đáp ứng yêu cầu – tương đương với việc thắp sáng  bóng đèn đèn 60 watt khoảng 3 phút. Con số này gần gấp 10 lần năng lượng tìm kiếm trung bình mà Google tiêu thụ.

Được biết, ChatGPT đáp ứng khoảng 200 triệu nhu cầu mỗi ngày, trong đó tiêu thụ hơn 500.000 kilowatt giờ điện mỗi ngày, tương đương với mức tiêu thụ điện trung bình hàng ngày của 17.000 hộ gia đình Mỹ. Tính theo năm có 365 ngày, ChatGPT tiêu thụ 182,5 triệu kilowatt giờ điện mỗi năm.

Google thực hiện khoảng 9 tỷ lượt tìm kiếm mỗi ngày. Nếu Google tích hợp trí tuệ nhân tạo tổng hợp trên quy mô lớn vào tìm kiếm, Cơ quan Năng lượng Quốc tế ước tính rằng họ sẽ cần thêm 10 terawatt giờ điện mỗi năm (1 terawatt giờ tương đương 1 tỷ kilowatt).

Tiêu thụ điện năng của trung tâm dữ liệu

Trung tâm dữ liệu là cơ sở hạ tầng của AI, nó cung cấp các tài nguyên tính toán, khả năng lưu trữ và băng thông mạng cần thiết cho AI, cho phép các ứng dụng AI chạy và phát triển hiệu quả.

Đồng thời, trung tâm dữ liệu cũng phải cung cấp hệ thống làm mát mạnh mẽ để duy trì nhiệt độ phù hợp, bởi hàng ngàn máy chủ và chip được sắp xếp gọn gàng và chạy suốt ngày đêm, tạo ra rất nhiều nhiệt lượng. Vì vậy, mức tiêu thụ điện năng của chính trung tâm dữ liệu là rất đáng kể.

Theo báo cáo của Cơ quan Năng lượng Quốc tế, mức tiêu thụ điện của trung tâm dữ liệu toàn cầu ước tính là 460 terawatt giờ vào năm 2022, chiếm gần 2% tổng nhu cầu điện toàn cầu. Tuy nhiên, mức tiêu thụ điện năng này không hoàn toàn do AI. Việc khai thác tiền điện tử cũng tiêu tốn gần 1/4, đạt 110 terawatt giờ vào năm 2022.

Báo cáo cho biết, mức tiêu thụ điện năng của trung tâm dữ liệu chủ yếu đến từ hai quy trình, tính toán chiếm 40%, yêu cầu làm mát cũng chiếm 40% và 20% còn lại đến từ các thiết bị CNTT liên quan khác.

Cơ quan Năng lượng Quốc tế ước tính rằng tổng mức tiêu thụ điện tại các trung tâm dữ liệu có thể tăng gấp đôi lên 1.000 terawatt giờ vào năm 2026, gần tương đương với mức tiêu thụ điện hàng năm của toàn Nhật Bản. So với năm 2022, mức tiêu thụ điện tăng thêm vào năm 2026 sẽ nhỏ bằng Thụy Điển, còn lớn thì tương đương với Đức.

AI thúc đẩy phát triển trung tâm dữ liệu

Số lượng trung tâm dũ liệu trên toàn cầu chỉ có khoảng 3.600 vào năm 2015, và gần 8.000 trung tâm vào năm 2021. Theo thống kê từ trang công nghệ thông tin Brightlio, con số này đã đạt 10.978 vào cuối năm 2023. Số lượng được cho là còn đang không ngừng tăng lên.

Mỹ hiện có 5.388 trung tâm dữ liệu, là quốc gia có nhiều trung tâm dữ liệu nhất thế giới. Theo ông John Ketchum, Giám đốc điều hành của NextEra Energy Inc., nhà phát triển năng lượng gió và mặt trời lớn nhất thế giới, nhu cầu điện của Mỹ dự kiến ​​sẽ tăng 40% trong hai thập kỷ tới, so với mức tăng trưởng chỉ 9% cách đây 2 thập kỷ.

Ông Ketchum cho biết, các trung tâm dữ liệu là lý do lớn nhất khiến nhu cầu tăng vọt. Khi được hỏi tại sao các trung tâm dữ liệu đột nhiên tiêu thụ nhiều năng lượng như vậy, câu trả lời của ông rất thẳng thắn: “Đó là AI”.

Ngày nay, nhiều quốc gia khác nhau đang dấy lên làn sóng “AI có chủ quyền”. Do ngôn ngữ khác nhau ở các quốc gia khác nhau, trong bối cảnh phát triển kinh tế, nhu cầu an ninh quốc gia và sự cạnh tranh giữa Mỹ và Trung Quốc, các quốc gia ở Châu Á, Trung Đông, Châu Âu và Châu Mỹ đang đầu tư xây dựng mới các công trình cơ sở tính toán AI trong nước. Người sáng lập và Giám đốc điều hành NVIDIA, Jensen Huang (Hoàng Nhân Huân) đã nói với những người tham gia Hội nghị thượng đỉnh Chính phủ Thế giới ở Dubai vào tháng Hai rằng mọi quốc gia cần có sản phẩm thông minh của riêng mình.

Cuộc chiến giành quyền thống trị AI toàn cầu có thể xoay quanh việc quốc gia nào có đủ trung tâm dữ liệu và điện để hỗ trợ công nghệ AI. Điều này có nghĩa là nhu cầu năng lượng từ trí tuệ nhân tạo và trung tâm dữ liệu sẽ ngày càng lớn và thậm chí là không giới hạn.

Làm thế nào để ứng phó

Amazon, Microsoft và Google, những nhà cung cấp dịch vụ đám mây lớn nhất, đã công bố mục tiêu sử dụng hoàn toàn năng lượng xanh cho các trung tâm dữ liệu của họ. Cả ba công ty đều cho biết họ đang xem xét các giải pháp kỹ thuật để sử dụng ít năng lượng hơn hoặc cân bằng nhu cầu lưới điện hiệu quả hơn, bao gồm việc sản xuất chip và máy chủ hiệu quả hơn đồng thời cố gắng giảm nhu cầu làm mát.

Cũng có một số nhà lãnh đạo công nghệ cho rằng chìa khóa để thích ứng với tình hình mới là những đột phá về năng lượng. Sam Altman, Giám đốc điều hành của Open AI, cho biết tại Hội nghị thường niên Diễn đàn kinh tế thế giới ở Davos vào đầu năm rằng các bước lặp lại của công nghệ AI trong tương lai đòi hỏi những đột phá về năng lượng và năng lượng mà công nghệ AI tiêu thụ sẽ vượt xa sự mong đợi của mọi người. Ông nói: “Không thể đạt được mục tiêu này nếu không có bước đột phá”.

Tháng trước, TerraPower, công ty năng lượng do đồng sáng lập Microsoft Bill Gates thành lập, đã bắt đầu xây dựng nhà máy điện hạt nhân thế hệ tiếp theo ở tiểu bang Wyoming, Mỹ, với các lò phản ứng sử dụng natri thay vì nước để làm mát. Ông tin rằng nó sẽ “sự thay đổi triệt để” cách tạo ra điện.

Liệu trí tuệ nhân tạo có thể được duy trì bền vững hay không đang nhận được sự quan tâm, trong đó năng lượng là yếu tố then chốt.