Your browser doesn’t support HTML5 audio

Sam Altman, CEO de OpenAI, reveló que simples expresiones como “por favor” y “gracias” dirigidas a ChatGPT representan un costo millonario para la empresa.

En una conversación reciente en la red social X (anteriormente Twitter), un usuario planteó una pregunta aparentemente trivial pero con un trasfondo técnico relevante: “¿Cuánto dinero ha perdido OpenAI en electricidad por las llamadas de ‘por favor’ y ‘gracias’ a sus modelos?”.

La respuesta de Altman fue tan directa como sorprendente: “Decenas de millones de dólares bien gastados. Nunca se sabe”.

Aunque a primera vista parezca una exageración, lo cierto es que cada palabra escrita e interpretada por ChatGPT tiene un costo energético asociado. Frases corteses, aunque breves, exigen que el modelo de lenguaje realice un proceso computacional para analizarlas, comprender su contexto y responder adecuadamente. Esto aumenta la carga de trabajo de los servidores, lo que se traduce en un mayor consumo de energía eléctrica.

La IA consume más energía de lo que imaginas

Según datos de Goldman Sachs, una sola consulta a ChatGPT-4 puede requerir alrededor de 2,9 vatios-hora de electricidad, una cifra considerablemente superior a la de una búsqueda convencional en Google, que ronda los 0,3 vatios-hora. Teniendo en cuenta que OpenAI procesa más de mil millones de consultas diarias, se estima que el consumo energético diario podría superar los 2,9 millones de kilovatios-hora.

Este impacto no es menor si se considera que los centros de datos de inteligencia artificial ya representan cerca del 2 % del consumo eléctrico mundial, según la Agencia Internacional de Energía (AIE). La situación podría agravarse aún más: proyecciones del Instituto de Investigación de Energía Eléctrica (EPRI) indican que para 2030, los centros de datos podrían consumir hasta el 9,1 % de la electricidad total en Estados Unidos.

Además, la AIE estima que los centros de datos serán responsables de más del 20 % del crecimiento de la demanda eléctrica en las economías desarrolladas en la próxima década, impulsados principalmente por la expansión de la IA y sus múltiples aplicaciones.

OpenAI apuesta por energías limpias

Ante este panorama, Sam Altman ha sido enfático en la necesidad de desarrollar fuentes de energía más sostenibles para soportar el crecimiento exponencial de la inteligencia artificial. El CEO de OpenAI ha invertido personalmente en empresas de energía limpia como Helion Energy, centrada en la fusión nuclear, y Exowatt, una startup especializada en energía solar.

OpenAI también está trabajando para mejorar sus propias infraestructuras de datos con el objetivo de ser más eficientes y sostenibles en el futuro. La compañía es consciente de que el éxito de sus modelos, como ChatGPT, debe ir acompañado de un enfoque responsable hacia el medioambiente.

¿Varían las respuestas de ChatGPT si le digo por favor y gracias?

Esto fue planteado en la universidad de Cornell, en Estados Unidos, y los estudios revelaron que la respuesta de la inteligencia artificial variaba si la persona era amable o no.

“El lenguaje cortés en las comunicaciones humanas a menudo genera mayor cumplimiento y efectividad, mientras que la grosería puede causar aversión, lo que afecta la calidad de la respuesta”, indica el estudio.

De la misma manera, la universidad de Cornell planteó que reflejan los rasgos de la comunicación humana, lo que sugiere que se alinean con las normas de los humanos y tienen mejor respuesta a indicaciones que tengan ‘por favor’ y ‘gracias’.

“Evaluamos el impacto de la cortesía en las indicaciones sobre los LLM en tareas de inglés, chino y japonés. Observamos que las indicaciones descorteses a menudo resultan en un rendimiento bajo, pero el lenguaje excesivamente cortés no garantiza mejores resultados”, puntualizó el estudio.

El estudio también demostró que el nivel de cortesía varía según el idioma. Este fenómeno sugiere que los LLM no solo reflejan el comportamiento humano, sino que también están influenciados por el idioma, particularmente en diferentes contextos culturales.

En inglés, por ejemplo, los modelos parecían responder mejor a un nivel de cortesía moderado, mientras que en japonés, un alto grado de cortesía resultó más beneficioso. Esto sugiere que los LLMs han absorbido patrones lingüísticos y culturales a partir de sus datos de entrenamiento.

“Nuestros hallazgos resaltan la necesidad de tener en cuenta la cortesía para el procesamiento del lenguaje natural intercultural y el uso de los LLM”.

El estudio señala que, aunque intentaron diseñar múltiples instrucciones al inicio del estudio, se encontraron con dificultades para equilibrar el nivel de cortesía con la variedad entre ellas.

Los investigadores también descubrieron que crear instrucciones lo suficientemente diversas y que “al mismo tiempo respetaran gradaciones sutiles de cortesía y respeto fue una tarea muy compleja”.

EN ESTA NOTA ChatGPT Sam Altman

Leé más notas de La Opinión Austral

Ver comentarios