Las inteligencias artificiales no solo consumen grandes cantidades de energía, sino también agua.
Grok, el chatbot desarrollado por el magnate Elon Musk, ha sorprendido a los usuarios al revelar que cada pregunta que responde puede implicar un consumo de hasta 0.5 litros de agua.
La revelación surgió cuando un usuario en la red social X (antes Twitter) le preguntó directamente a Grok sobre la cantidad de agua utilizada en cada respuesta.
El sistema de IA contestó que su consumo oscila entre 0.1 y 0.5 litros, dependiendo de la ubicación y la eficiencia de los servidores donde opera.
Este gasto de agua se debe a la necesidad de refrigeración de los centros de datos, que funcionan las 24 horas del día, los 7 días de la semana.
De acuerdo con expertos de la Universidad Nacional Autónoma de México (UNAM), la infraestructura tecnológica de la inteligencia artificial genera una cantidad significativa de calor, lo que obliga a utilizar sistemas de enfriamiento por agua para evitar el sobrecalentamiento.
El impacto ambiental de la inteligencia artificial ha sido objeto de debate en los últimos años.
Estudios han demostrado que, por ejemplo, ChatGPT de OpenAI consume en promedio 519 mililitros de agua por cada respuesta de 100 palabras.
Este volumen de agua es equivalente a la energía necesaria para alimentar 14 focos LED durante una hora.
El crecimiento del uso de la inteligencia artificial en diversos sectores ha puesto en la mira su huella ecológica.
Aunque empresas tecnológicas han implementado estrategias para reducir el impacto ambiental, el consumo de recursos como el agua y la electricidad sigue siendo una preocupación para ambientalistas y expertos en sostenibilidad.
A medida que la IA avanza y se integra más en la vida cotidiana, la pregunta sobre su impacto ambiental cobra mayor relevancia.
¿Será posible encontrar alternativas más sostenibles para su funcionamiento? Por ahora, la revelación de Grok nos deja con una interrogante sobre el costo real de la inteligencia artificial en nuestro planeta.