Lạc quan về AI của Thung lũng Silicon thường xuyên mâu thuẫn với thực tế, và Sam Altman của OpenAI cũng không ngoại lệ. Những tuyên bố gần đây về tác động môi trường của ChatGPT đã gây tranh cãi, với các nhà phê bình cho rằng Altman đang làm giảm nhẹ mức tiêu thụ nước và năng lượng thực sự của AI.
Trong một bài đăng blog gần đây, Altman đưa ra các con số cho thấy một truy vấn ChatGPT chỉ tiêu thụ 0,34 Wh điện – “tương đương với mức tiêu thụ của một bóng đèn hiệu suất cao trong vài phút.” Ông còn tuyên bố rằng làm mát các trung tâm dữ liệu cho một truy vấn chỉ cần “0,000085 gallon nước, khoảng một phần mười lăm thìa cà phê.”
Tuy nhiên, những con số này đã vấp phải sự hoài nghi do thiếu bằng chứng hỗ trợ. Mặc dù được yêu cầu làm rõ, OpenAI vẫn chưa cung cấp dữ liệu chứng minh các tuyên bố trên. Những tính toán đơn giản dựa trên thống kê người dùng của chính OpenAI đã làm dấy lên lo ngại. Với 300 triệu người dùng hoạt động hàng tuần tạo ra 1 tỷ tin nhắn mỗi ngày, chatbot có thể tiêu thụ tới 85.000 gallon nước mỗi ngày, hoặc hơn 31 triệu gallon mỗi năm. Những con số này chỉ tính đến lượng nước sử dụng, chưa kể đến mức tiêu thụ điện năng đáng kể để vận hành AI.
Ngay cả trước khi AI tạo sinh trỗi dậy, các trung tâm dữ liệu đã nổi tiếng với mức tiêu thụ tài nguyên. Lượng nước sử dụng của Microsoft được cho là đã tăng vọt sau khi hợp tác với OpenAI. Một nghiên cứu năm 2023 từ Đại học California ước tính rằng mô hình GPT-3 cũ tiêu thụ khoảng 0,5 lít nước cho mỗi 10 đến 50 truy vấn. Ngoại suy dữ liệu này cho thấy riêng mô hình cũ có thể sử dụng hơn 8 triệu gallon nước mỗi ngày. GPT-4.1 hiện tại và các mô hình liên quan có lẽ còn đòi hỏi nhiều tài nguyên hơn nữa.
Quy mô và độ phức tạp của các mô hình AI ảnh hưởng trực tiếp đến mức tiêu thụ năng lượng của chúng. Đào tạo các mô hình này đòi hỏi lượng điện khổng lồ, và việc đào tạo lại liên tục càng làm trầm trọng thêm vấn đề. Ước tính của Altman không tính đến nhu cầu năng lượng khác nhau của các sản phẩm ChatGPT, bao gồm cả mô hình GPT-4o tiên tiến. Các con số này cũng bỏ qua mức tiêu thụ năng lượng tăng lên liên quan đến việc tạo hình ảnh AI. Ngay cả với những cải tiến về hiệu suất, việc gia tăng người dùng chắc chắn sẽ dẫn đến nhu cầu điện năng cao hơn.
Bài đăng blog của Altman quảng bá một tầm nhìn về sản xuất trung tâm dữ liệu tự động sẽ giảm chi phí AI xuống gần bằng chi phí điện. Ông lập luận rằng AI sẽ tạo ra nhiều của cải đến mức xã hội có thể đủ khả năng triển khai thu nhập cơ bản phổ quát để bù đắp cho việc mất việc làm. Nhưng các nhà phê bình cho rằng sự lạc quan này không dựa trên thực tế. Các cách tiếp cận khác để khắc phục tác động môi trường của AI bao gồm đề xuất đặt trung tâm dữ liệu dưới biển hoặc xây dựng nhà máy điện hạt nhân, nhưng không có phương án nào gần giải quyết được vấn đề thực sự.
Altman thừa nhận sự cần thiết phải giải quyết các vấn đề an toàn AI nhưng đồng thời ủng hộ việc áp dụng rộng rãi nó. Ông gợi ý rằng AI cuối cùng sẽ giải quyết biến đổi khí hậu, nhưng các nhà phê bình lo ngại rằng nhiệt độ tăng cao sẽ làm căng thẳng thêm các trung tâm dữ liệu, đòi hỏi nhiều tài nguyên hơn nữa. Cuộc tranh luận về việc tác động môi trường của AI có được mô tả chính xác hay không vẫn tiếp diễn.
Từ khóa: Sam Altman, ChatGPT, OpenAI, AI, Trí tuệ nhân tạo, Tác động môi trường, Tiêu thụ nước, Tiêu thụ năng lượng, Trung tâm dữ liệu, GPT-4.1, GPT-4o, Tính bền vững, Biến đổi khí hậu
Bài Viết Liên Quan
- Chiến lược AI của Apple: Liệu có đủ để cạnh tranh?
- FDA sử dụng AI để phê duyệt thuốc: Đường tắt đến đổi mới hay rủi ro?
- Lệnh cấm AI của Trung Quốc trong kỳ thi: Dấu hiệu của tương lai?