Thách thức về năng lượng từ AI

- Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) đang định hình lại tất cả các lĩnh vực, trong đó có báo chí truyền thông. Tuy nhiên, đi kèm với những thành tựu ấn tượng là những thách thức nghiêm trọng về năng lượng - yếu tố cốt lõi để vận hành các mô hình AI hiện đại.

Mức tiêu thụ điện năng khổng lồ

Các mô hình AI tiên tiến như ChatGPT, Gemini hay Claude yêu cầu lượng lớn dữ liệu và sức mạnh tính toán để huấn luyện và vận hành. Một nghiên cứu chỉ ra rằng việc huấn luyện một mô hình ngôn ngữ lớn có thể tiêu thụ hàng trăm megawatt - giờ điện - tương đương với mức tiêu thụ điện hằng năm của hàng chục hộ gia đình Mỹ.

Theo ước tính của các nhà nghiên cứu tại Đại học Washington và một số chuyên gia từ các tổ chức năng lượng: một truy vấn (prompt) gửi tới mô hình ngôn ngữ lớn như GPT-4 có thể tiêu thụ từ 2 đến 5 watt - giờ điện (Wh) tùy vào độ dài câu hỏi và độ phức tạp của câu trả lời, tương đương với lượng điện đủ để bật một bóng đèn LED 10W trong khoảng 15 - 30 phút.

Nếu ChatGPT xử lý 100 triệu câu hỏi mỗi ngày, tổng lượng điện tiêu thụ sẽ tương đương điện năng tiêu thụ của 10.000 hộ gia đình Mỹ trong 1 ngày.

Google DeepMind từng công bố: Họ sử dụng hàng trăm ngàn GPU để huấn luyện mô hình AI, và chỉ riêng giai đoạn huấn luyện AlphaFold đã tiêu tốn khoảng 200 MWh, đủ để cấp điện cho hơn 15.000 hộ gia đình trong một ngày.

Theo tính toán, nếu ChatGPT xử lý 100 triệu câu hỏi mỗi ngày (con số thực tế có thể cao hơn), với mức trung bình 3Wh/câu hỏi, tổng lượng điện tiêu thụ mỗi ngày sẽ là 300 triệu Wh (300 MWh) - tương đương điện năng tiêu thụ của 10.000 hộ gia đình Mỹ trong 1 ngày.

Đáng lưu ý, với các mô hình đa phương thức (văn bản, hình ảnh, video), mức tiêu tốn điện còn cao hơn nhiều lần. Và đây mới chỉ là giai đoạn sử dụng (inference), còn quá trình huấn luyện một mô hình như GPT-4 hay Gemini có thể tiêu tốn hơn 1 GWh, tương đương với điện năng tiêu thụ của một thị trấn nhỏ trong nhiều tháng.

Cơn “khát nước” âm thầm

Không chỉ tiêu tốn điện, AI còn đang gây ra những cơn khát nước âm thầm. Các trung tâm dữ liệu - nơi vận hành các mô hình như GPT-4, Gemini, Claude… cần phải làm mát liên tục để tránh tình trạng quá nhiệt khi xử lý lượng lớn truy vấn. Và trong rất nhiều trường hợp, nước chính là yếu tố chủ chốt trong hệ thống làm mát đó.

Theo một nghiên cứu của Đại học California, Riverside (2023), mỗi câu hỏi gửi đến ChatGPT có thể “uống” gần nửa lít nước - để làm mát hệ thống máy chủ và trung tâm dữ liệu.

Việc huấn luyện một mô hình như GPT-3 (phiên bản tiền nhiệm của GPT-4) đã tiêu tốn khoảng 700.000 lít nước chỉ để làm mát máy chủ. Đó là mức nước tương đương với việc tưới tiêu khoảng 2 hecta lúa trong một mùa vụ, hoặc đáp ứng nhu cầu uống nước của 4.000 người trong 1 ngày.

Google và Microsoft, hai công ty dẫn đầu trong phát triển AI, đều ghi nhận mức tiêu thụ nước tăng vọt trong năm 2023 - tương ứng với thời điểm họ đẩy mạnh đầu tư vào các mô hình AI. Trong đó, Microsoft tiêu thụ gần 6,4 tỷ lít nước trong năm 2022 - tăng hơn 30% so với năm trước, phần lớn liên quan tới việc huấn luyện các mô hình AI tại trung tâm dữ liệu ở Iowa, nơi sử dụng hệ thống làm mát bằng nước ngầm.

Như vậy, AI đang có những tác động đến môi trường khi tiêu thụ nước quá mức tại các trung tâm dữ liệu gây cạn kiệt nguồn nước ngầm, ảnh hưởng đến nông nghiệp, đời sống sinh hoạt của người dân, nhất là ở những khu vực thường xuyên khô hạn. Một số cơ sở AI đặt gần các vùng nông nghiệp (như ở bang Arizona, Mỹ) đã vấp phải phản ứng dữ dội từ cộng đồng vì cho rằng “AI đang giành nước với con người”.

Trí tuệ nhân tạo có thể là công cụ thay đổi thế giới, đặc biệt với việc tác nghiệp báo chí. Nhưng mỗi câu hỏi ta gửi cho AI không chỉ là dữ liệu, mà còn là năng lượng, nước, và tài nguyên môi trường bị tiêu hao. Mỗi cú nhấp chuột, mỗi dòng văn bản từ AI, đều mang theo “dấu chân carbon” mà người dùng thường không nhìn thấy.

Trong thực tế đang có những người sử dụng chat GPT như một cách tiêu khiển, đặt những câu truy vấn vô bổ mà không biết mình đang góp phần để AI tiêu tốn điện, nước, tăng phát thải khí nhà kính… Do vậy, các nhà báo cần là người đầu tiên có trách nhiệm trong sử dụng trí tuệ nhân tạo.

AI càng thông minh, con người càng cần tỉnh táo, để không đổi lấy sự tiện lợi bằng cái giá môi sinh.

Thái An

Tin cùng chuyên mục