Decir “por favor” y “gracias” es una norma de buena educación entre humanos, pero en el mundo de la inteligencia artificial, estas palabras pueden tener un precio inesperado.
Sam Altman, CEO de OpenAI, señaló que el uso de expresiones de cortesía con ChatGPT se traduce en un mayor consumo de recursos computacionales. Por lo tanto, implica un impacto significativo en términos energéticos y económicos.
Cada vez que un usuario añade frases amables a sus consultas, ChatGPT debe procesar más tokens, lo que implica más tiempo de cálculo, uso intensivo de GPU y mayor carga sobre los servidores.
El impacto de ser amable con la inteligencia artificial
Altman comentó en tono de humor que OpenAI ha gastado “decenas de millones de dólares bien gastados” debido a las palabras adicionales que los usuarios agregan por amabilidad.
Sin embargo, detrás del comentario existe una realidad preocupante: esas interacciones generan una demanda energética considerable.
Un análisis de Tom’s Hardware estima que cada consulta promedio a ChatGPT consume unos 0,3 vatios-hora de electricidad.
Se consumen litros de agua
Si se considera la escala global de usuarios, el gasto energético es abrumador. A esto se suma el uso de agua para enfriar los servidores: una simple respuesta de dos o tres palabras puede requerir entre 40 y 50 mililitros de agua.
Un chatbot de IA puede gastar medio litro de agua por respuesta. Más allá del costo energético, algunas investigaciones, como un estudio de la Universidad de Cornell, indican que el uso de un lenguaje cortés puede mejorar la calidad de las respuestas generadas por la IA.
Sin embargo, advierten que un exceso de amabilidad puede tener el efecto contrario.
El rendimiento óptimo parece encontrarse en una cortesía moderada, especialmente en idiomas como el inglés.
El uso responsable de la inteligencia artificial no solo pasa por lo que preguntamos, sino también por cómo lo preguntamos.
La eficiencia puede ser más valiosa que la etiqueta cuando se trata de hablar con una máquina.