Si bien las preguntas sobre los peligros de la IA, incluida la información errónea y las amenazas de desplazamiento laboral humano, aún dominan la discusión, un profesor de la Universidad de Boston está haciendo sonar la alarma sobre otro posible efecto secundario: que las herramientas de IA generativa podrían tener un impacto ambiental considerable. **
"Como investigadora de IA, a menudo me preocupa el costo energético de construir modelos de IA", escribió Kate Saenko, profesora asociada de ciencias de la computación en la Universidad de Boston, en un artículo para The Conversation. Ella señaló: "La IA cuanto más poderosa es , más energía se necesita".
Si bien el consumo de energía de cadenas de bloques como Bitcoin y Ethereum se ha convertido en el foco de investigación y debate desde Twitter hasta los pasillos del Congreso, el impacto de los rápidos avances en inteligencia artificial en el planeta aún no ha recibido la misma atención.
La profesora Saenko pretende cambiar eso, pero en su artículo reconoce que hay datos limitados sobre la huella de carbono de las consultas de IA generativas individuales. Sin embargo, dijo que los hallazgos mostraron que las consultas generativas de IA consumen de cuatro a cinco veces más energía que las consultas simples del motor de búsqueda.
Según un informe de 2019, el profesor Saenko mencionó un modelo de inteligencia artificial generativa llamado BERT (Representaciones de codificador bidireccional de transformadores), que tiene 110 millones de parámetros, y la energía consumida para entrenar el modelo es equivalente a una persona que viaja a través del vuelo y el modelo de Continental. entrenamiento usando Unidades de Procesamiento de Gráficos (GPUs).
En los modelos de IA, los parámetros son variables aprendidas de los datos que guían las predicciones del modelo. Más parámetros en un modelo generalmente significan un modelo más complejo y, por lo tanto, requieren más datos y recursos informáticos. Durante el entrenamiento, los parámetros se ajustan para minimizar el error.
En comparación, el profesor Saenko mencionó que el modelo GPT-3 de OpenAI tiene 175 000 millones de parámetros y consume tanta energía como 123 automóviles de pasajeros a gasolina durante un año, o alrededor de 1287 megavatios-hora de electricidad. Al mismo tiempo, el modelo produjo 552 toneladas de CO2. También agregó que esta cifra es solo cuando el modelo esté listo para ser lanzado, sin que ningún consumidor comience a usar el modelo.
"Si los chatbots se vuelven tan populares como los motores de búsqueda, los costos de energía para implementar estas IA podrían ser muy altos", dijo el profesor Saenko, citando como ejemplo la incorporación de ChatGPT de Microsoft a su navegador web Bing a principios de este mes.
Para complicar aún más las cosas, cada vez más chatbots de IA, como Perplexity AI y el popular ChatGPT de OpenAI, están lanzando aplicaciones móviles. Esto los hace más fáciles de usar y expuestos a una base de usuarios más amplia.
El profesor Saenko señaló un estudio realizado por Google que encontró que el uso de arquitecturas y procesadores modelo más eficientes, así como centros de datos más ecológicos, pueden reducir significativamente la huella de carbono.
"Un solo modelo grande de IA no devastará el medio ambiente, pero si miles de empresas desarrollan robots de IA ligeramente diferentes para diferentes propósitos, y cada robot es utilizado por millones de clientes, el consumo de energía podría ser un problema".
Al final, Saenko concluyó que se necesita más investigación para hacer que la IA generativa sea más eficiente, pero es optimista.
"La buena noticia es que la IA puede funcionar con energía renovable”, escribió. "Al ubicar los cálculos donde, o en los momentos en que, la energía renovable es más abundante, podremos hacerlo de manera mucho más eficiente de lo que lo haríamos si estuviéramos utilizando principalmente combustibles fósiles". Esto podría reducir las emisiones en un factor de 30 a 40 en comparación con la red dominante".
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¿Qué impacto tienen las herramientas de IA generativa en el medio ambiente?
Si bien las preguntas sobre los peligros de la IA, incluida la información errónea y las amenazas de desplazamiento laboral humano, aún dominan la discusión, un profesor de la Universidad de Boston está haciendo sonar la alarma sobre otro posible efecto secundario: que las herramientas de IA generativa podrían tener un impacto ambiental considerable. **
"Como investigadora de IA, a menudo me preocupa el costo energético de construir modelos de IA", escribió Kate Saenko, profesora asociada de ciencias de la computación en la Universidad de Boston, en un artículo para The Conversation. Ella señaló: "La IA cuanto más poderosa es , más energía se necesita".
Si bien el consumo de energía de cadenas de bloques como Bitcoin y Ethereum se ha convertido en el foco de investigación y debate desde Twitter hasta los pasillos del Congreso, el impacto de los rápidos avances en inteligencia artificial en el planeta aún no ha recibido la misma atención.
La profesora Saenko pretende cambiar eso, pero en su artículo reconoce que hay datos limitados sobre la huella de carbono de las consultas de IA generativas individuales. Sin embargo, dijo que los hallazgos mostraron que las consultas generativas de IA consumen de cuatro a cinco veces más energía que las consultas simples del motor de búsqueda.
Según un informe de 2019, el profesor Saenko mencionó un modelo de inteligencia artificial generativa llamado BERT (Representaciones de codificador bidireccional de transformadores), que tiene 110 millones de parámetros, y la energía consumida para entrenar el modelo es equivalente a una persona que viaja a través del vuelo y el modelo de Continental. entrenamiento usando Unidades de Procesamiento de Gráficos (GPUs).
En los modelos de IA, los parámetros son variables aprendidas de los datos que guían las predicciones del modelo. Más parámetros en un modelo generalmente significan un modelo más complejo y, por lo tanto, requieren más datos y recursos informáticos. Durante el entrenamiento, los parámetros se ajustan para minimizar el error.
En comparación, el profesor Saenko mencionó que el modelo GPT-3 de OpenAI tiene 175 000 millones de parámetros y consume tanta energía como 123 automóviles de pasajeros a gasolina durante un año, o alrededor de 1287 megavatios-hora de electricidad. Al mismo tiempo, el modelo produjo 552 toneladas de CO2. También agregó que esta cifra es solo cuando el modelo esté listo para ser lanzado, sin que ningún consumidor comience a usar el modelo.
"Si los chatbots se vuelven tan populares como los motores de búsqueda, los costos de energía para implementar estas IA podrían ser muy altos", dijo el profesor Saenko, citando como ejemplo la incorporación de ChatGPT de Microsoft a su navegador web Bing a principios de este mes.
Para complicar aún más las cosas, cada vez más chatbots de IA, como Perplexity AI y el popular ChatGPT de OpenAI, están lanzando aplicaciones móviles. Esto los hace más fáciles de usar y expuestos a una base de usuarios más amplia.
El profesor Saenko señaló un estudio realizado por Google que encontró que el uso de arquitecturas y procesadores modelo más eficientes, así como centros de datos más ecológicos, pueden reducir significativamente la huella de carbono.
"Un solo modelo grande de IA no devastará el medio ambiente, pero si miles de empresas desarrollan robots de IA ligeramente diferentes para diferentes propósitos, y cada robot es utilizado por millones de clientes, el consumo de energía podría ser un problema".
Al final, Saenko concluyó que se necesita más investigación para hacer que la IA generativa sea más eficiente, pero es optimista.
"La buena noticia es que la IA puede funcionar con energía renovable”, escribió. "Al ubicar los cálculos donde, o en los momentos en que, la energía renovable es más abundante, podremos hacerlo de manera mucho más eficiente de lo que lo haríamos si estuviéramos utilizando principalmente combustibles fósiles". Esto podría reducir las emisiones en un factor de 30 a 40 en comparación con la red dominante".