Trung bình một câu lệnh AI Gemini tiêu thụ 0,24 Wh, tương đương việc xem Tivi trong 9 giây, gây phát thải 0,033 gCO2e.
Lần đầu tiên, Google công bố báo cáo đo lường tác động môi trường trong việc giải đáp các câu lệnh (prompt) AI Gemini, vào ngày 21/8. Giới phân tích nhận định đây là ước tính minh bạch nhất về dấu chân môi trường của một công ty công nghệ lớn sở hữu sản phẩm AI phổ biến.

Logo của Gemini. Ảnh: Reuters
Theo công bố, một câu lệnh AI của Google tạo ra 0,033 gCO2e trên cả ba phạm vi. Với một công ty AI, lượng khí thải lớn nhất nằm trong phạm vi 2, tức phát thải gián tiếp từ nguồn điện, hệ thống sưởi ấm, làm lạnh. Phạm vi 1 là phát thải trực tiếp từ doanh nghiệp, còn phạm vi 3 là phát thải gián tiếp từ nguồn khác như vận chuyển thượng nguồn, xử lý chất thải, tiêu thụ nhiên liệu và năng lượng (ngoài phạm vi 1 và 2).
Với câu lệnh AI Gemini, lượng phát thải trong phạm vi 2 ở mức 0,023g CO2e, chiếm 70%.
Lượng sử dụng | Chi tiết | |
Năng lượng | 0,24 Wh | Tương đương xem TV trong 9 giây |
Nước | 0,26 ml | Tương đương 5 giọt nước |
Khí thải | 0,033 gCO2e |
Trong đó: – Phạm vi 2: 0,023 gCO2e – Phạm vi 1 và 3: 0,01 gCO2e |
Cũng theo báo cáo, mỗi câu lệnh trung bình sử dụng khoảng 0,24 Wh điện và tiêu thụ 0,26 ml nước. Google ví việc tiêu tốn này tương đương năm giọt nước và hoạt động xem TV trong 9 giây.
Trong cơ cấu sử dụng điện, các bộ tăng tốc hỗ trợ AI của Google chiếm 58%, thiết bị cần thiết để hỗ trợ phần cứng chuyên biệt cho AI như CPU và bộ nhớ của máy chủ chiếm thêm 25% tổng năng lượng sử dụng. Các thiết bị dự phòng cần thiết trong trường hợp có sự cố, hoạt động ở chế độ chờ (idle) chiếm 10%. Phần còn lại là điện dùng vận hành trung tâm dữ liệu, bao gồm hoạt động làm mát và chuyển đổi nguồn điện.
Thêm vào đó, lượng điện sử dụng trong mỗi truy vấn AI đã giảm 33 lần so với một năm trước. Sự cải thiện này đến từ những tiến bộ về phần cứng, thuật toán được tối ưu hóa và hoạt động hiệu quả hơn của trung tâm dữ liệu.
Tuy nhiên, số liệu của Google là ước tính trung bình, không đại diện cho tất cả các truy vấn được gửi đến Gemini. Một số câu lệnh sẽ tốn nhiều năng lượng hơn thế. Jeff Dean, nhà khoa học trưởng của Google, lấy ví dụ về việc đưa hàng chục cuốn sách vào Gemini và yêu cầu tạo ra một bản tóm tắt chi tiết nội dung.
Thêm vào đó, việc sử dụng mô hình suy luận cũng có thể làm tăng nhu cầu năng lượng, bởi mô hình này thực hiện nhiều bước hơn trước khi đưa ra câu trả lời.
Ông cũng lưu ý báo cáo này chỉ giới hạn ở các câu lệnh văn bản (text), không đại diện cho những tài nguyên cần thiết để tạo ra hình ảnh hoặc video, vốn ngốn nhiều năng lượng hơn.
Bất chấp hiệu suất tăng vài chục lần ở mỗi câu lệnh, tổng điện sử dụng ở cấp độ công ty vẫn tiếp tục tăng, thúc đẩy bởi nhu cầu truy vấn AI tăng nhanh chóng. CarbonCredits gọi xu hướng này là một ví dụ về “nghịch lý Jevons”, một nguyên tắc kinh tế đặt tên theo nhà kinh tế học William Stanley Jevons.
Theo nguyên tắc trên, việc tăng hiệu quả sử dụng một nguồn tài nguyên có thể dẫn đến sự gia tăng tổng thể mức tiêu thụ của nguồn tài nguyên đó, thay vì giảm bớt. Bởi tính hiệu quả cao hơn giúp chi phí sử dụng tài nguyên giảm, qua đó kéo nhu cầu tăng lên, đẩy nhanh tốc độ tiêu thụ tài nguyên.
Thực tế, tổng lượng khí nhà kính của Google năm 2024 đã tăng 51% sau 5 năm, thúc đẩy bởi hoạt động AI tăng vọt. Trong đó, các trung tâm dữ liệu sử dụng tới 30,8 triệu MWh điện, gấp đôi năm 2020.
Google đã nỗ lực giảm thiểu tác động của các trung tâm dữ liệu tới khí hậu, tập trung vào các giải pháp điện tái tạo, hạt nhân và mua tín chỉ carbon bù trừ.
Bảo Bảo (theo Google, CarbonCredits, MIT Technology Review)