Resposta: La IA pot utilitzar molt poca electricitat per a una tasca de text simple, però molta més quan les indicacions són llargues, els resultats són multimodals o els sistemes funcionen a gran escala. La formació sol ser el principal consum d'energia inicial, mentre que la inferència diària esdevé significativa a mesura que s'acumulen les sol·licituds.
Conclusions clau:
Context : Definiu la tasca, el model, el maquinari i l'escala abans de citar qualsevol estimació d'energia.
Formació : Tracteu la formació del model com el principal esdeveniment energètic inicial a l'hora de planificar pressupostos.
Inferència : Vigileu atentament les inferències repetides, perquè els costos petits per sol·licitud s'acumulen ràpidament a gran escala.
Infraestructura : Incloeu la refrigeració, l'emmagatzematge, les xarxes i la capacitat inactiva en qualsevol estimació realista.
Eficiència : utilitzeu models més petits, indicacions més curtes, emmagatzematge en memòria cau i processament per lots per reduir el consum d'energia.

Articles que potser t'agradaria llegir després d'aquest:
🔗 Com afecta la IA al medi ambient
Explica la petjada de carboni de la IA, el consum d'energia i els compromisos en matèria de sostenibilitat.
🔗 La IA és dolenta per al medi ambient?
Desxifra els costos ambientals ocults dels models d'IA i els centres de dades.
🔗 La IA és bona o dolenta? Pros i contres
Una visió equilibrada dels beneficis, els riscos, l'ètica i els impactes reals de la IA.
🔗 Què és la IA? Una guia senzilla
Aprèn els conceptes bàsics de la IA, termes clau i exemples quotidians en qüestió de minuts.
Per què aquesta pregunta importa més del que la gent pensa 🔍
L'ús d'energia per IA no és només un tema de conversa mediambiental. Toca alguns aspectes molt reals:
-
Cost de l'electricitat , especialment per a empreses que executen moltes sol·licituds d'IA
-
Impacte de carboni : depenent de la font d'alimentació darrere dels servidors
-
Tensió de maquinari : els xips potents consumeixen una potència considerable
-
Decisions d'escalat : una proposta barata es pot convertir en milions de decisions cares.
-
Disseny de producte : l'eficiència sovint és una característica millor del que la gent pensa ( Google Cloud , IA verda )
Molta gent pregunta "Quanta energia utilitza la IA?" perquè volen una xifra espectacular. Quelcom enorme. Quelcom que sigui a l'altura dels titulars. Però la millor pregunta és aquesta: de quin tipus d'ús de la IA estem parlant? Perquè això ho canvia tot. ( IEA )
Un únic suggeriment d'autocompletar? Bastant petit.
Entrenar un model de frontera a través de clústers massius? Molt, molt més gran.
Un flux de treball d'IA empresarial sempre actiu que afecta milions d'usuaris? Sí, això suma ràpidament... com cèntims que es converteixen en un pagament de lloguer. ( DOE , Google Cloud )
Quanta energia utilitza la IA? La resposta curta ⚡
Aquí teniu la versió pràctica.
La IA pot utilitzar des d'una petita fracció d'un watt-hora per a una tasca lleugera fins a grans quantitats d'electricitat per a entrenament i desplegament a gran escala. Aquest rang sona còmicament ampli perquè és ampli. ( Google Cloud , Strubell et al. )
En poques paraules:
-
Tasques d'inferència simples , sovint relativament modestes per ús
-
Converses llargues, grans produccions, generació d'imatges, generació de vídeo : notablement més intensives en energia
-
Entrenament de models grans : el campió de pes pesant del consum d'energia
-
Executant IA a escala tot el dia , on "petit per sol·licitud" es converteix en "gran factura total" ( Google Cloud , DOE )
Una bona regla general és aquesta:
-
La formació és el gegant de l'esdeveniment energètic inicial 🏭
-
La inferència és la factura de serveis públics en curs 💡 ( Strubell et al. , Google Research )
Així doncs, quan algú pregunta quanta energia utilitza la IA?, la resposta directa és: "No una quantitat, sinó prou perquè l'eficiència importi i prou perquè l'escala canviï tota la història". ( IEA , IA verda )
Això no és tan enganxós com la gent voldria, ho sé. Però és veritat.
Què fa que una estimació d'energia feta per IA sigui bona? 🧠
Una bona estimació no és només un número dramàtic llançat en un gràfic. Una estimació pràctica inclou context. Altrament, és com pesar la boira amb una bàscula de bany. Prou a prop per semblar impressionant, però no prou a prop per confiar-hi. ( IEA , Google Cloud )
Una estimació decent de l'energia de la IA hauria d'incloure:
-
El tipus de tasca : text, imatge, àudio, vídeo, formació, ajust fi
-
La mida del model : els models més grans solen necessitar més càlcul
-
El maquinari utilitzat : no tots els xips són igualment eficients
-
Durada de la sessió : les indicacions curtes i els fluxos de treball llargs de diversos passos són molt diferents.
-
Utilització : els sistemes inactius encara consumeixen energia
-
Refrigeració i infraestructura : el servidor no és tota la factura
-
Ubicació i combinació energètica : l'electricitat no és igualment neta a tot arreu ( Google Cloud , IEA )
És per això que dues persones poden discutir sobre l'ús de l'electricitat de la IA i ambdues semblen segures mentre parlen de coses totalment diferents. Una persona es refereix a una única resposta de chatbot. L'altra es refereix a una cursa d'entrenament gegant. Totes dues diuen "IA", i de sobte la conversa es descarrila 😅
Taula comparativa: les millors maneres d'estimar el consum d'energia de la IA 📊
Aquí teniu una taula pràctica per a qualsevol que intenti respondre la pregunta sense convertir-la en una actuació artística.
| Eina o mètode | Millor públic | Preu | Per què funciona |
|---|---|---|---|
| Estimació simple amb regla general | Lectors curiosos, estudiants | Gratuït | Ràpid, fàcil, una mica borrós, però prou bo per a comparacions aproximades |
| Wattímetre del costat del dispositiu | Constructors individuals, aficionats | Baix | Mesura el consum real de la màquina, que és refrescantment concret |
| Tauler de control de telemetria de la GPU | Enginyers, equips d'aprenentatge automàtic | Mitjà | Millor detall en tasques amb un alt consum de càlcul, tot i que pot passar per alt la major sobrecàrrega de les instal·lacions |
| Facturació al núvol + registres d'ús | Startups, equips operatius | De mitjà a alt | Connecta l'ús de la IA amb la despesa real: no és perfecte, però encara és força valuós |
| Informes energètics del centre de dades | Equips empresarials | Alt | Dóna una visibilitat operativa més àmplia, la refrigeració i la infraestructura comencen a aparèixer aquí |
| Avaluació completa del cicle de vida | Equips de sostenibilitat, grans organitzacions | Alt, de vegades dolorós | Ideal per a anàlisis serioses perquè va més enllà del xip en si... però és lent i una mica bèstia |
No hi ha cap mètode perfecte. Aquesta és la part lleugerament frustrant. Però hi ha nivells de valor. I normalment, alguna cosa útil és millor que la perfecció. ( Google Cloud )
El factor més important no és la màgia, sinó la informàtica i el maquinari 🖥️🔥
Quan la gent imagina l'ús d'energia de la IA, sovint s'imaginen el model en si mateix com allò que consumeix energia. Però el model és lògica de programari que s'executa en maquinari. El maquinari és on apareix la factura de la llum. ( Strubell et al. , Google Cloud )
Les variables més importants solen incloure:
-
Tipus de GPU o accelerador
-
Quantes fitxes s'utilitzen
-
Quant de temps romanen actius
-
Càrrega de memòria
-
Mida del lot i rendiment
-
Si el sistema està ben optimitzat o simplement ho força tot ( Google Cloud , quantificació, processament per lots i estratègies de publicació en l'ús d'energia de LLM )
Un sistema altament optimitzat pot fer més feina amb menys energia. Un sistema descuidat pot malgastar electricitat amb una confiança impressionant. Ja sabeu com és: algunes configuracions són cotxes de curses, d'altres són carrets de la compra amb coets enganxats amb cinta adhesiva 🚀🛒
I sí, la mida del model importa. Els models més grans solen requerir més memòria i més càlcul, especialment quan es generen resultats llargs o es gestionen raonaments complexos. Però els trucs d'eficiència poden canviar la imatge: ( IA verda , quantificació, processament per lots i estratègies de servei en l'ús d'energia LLM )
-
quantificació
-
millor enrutament
-
models especialitzats més petits
-
emmagatzematge en memòria cau
-
processament per lots
-
programació de maquinari més intel·ligent ( quantització, processament per lots i estratègies de servei en l'ús d'energia de LLM )
Així doncs, la pregunta no és només "Quina és la mida del model?", sinó també "Amb quina intel·ligència s'està executant?"
Entrenament vs inferència: són animals diferents 🐘🐇
Aquesta és la divisió que confon gairebé tothom.
Formació
L'entrenament és quan un model aprèn patrons d'enormes conjunts de dades. Pot implicar molts xips que s'executen durant períodes prolongats, processant volums gegants de dades. Aquesta etapa consumeix molta energia. De vegades, molta. ( Strubell et al. )
L'energia d'entrenament depèn de:
-
mida del model
-
mida del conjunt de dades
-
nombre de curses d'entrenament
-
experiments fallits
-
passades d'afinament
-
eficiència del maquinari
-
refrigeració de la part superior ( Strubell et al. , Google Research )
I aquí teniu la part que la gent sovint passa per alt: el públic sovint s'imagina una gran tirada d'entrenament, feta una vegada, fi de la història. A la pràctica, el desenvolupament pot implicar tirades repetides, ajustaments, reentrenament, avaluació i totes les iteracions prosaiques però costoses al voltant de l'esdeveniment principal. ( Strubell et al. , Green AI )
Inferència
La inferència és el model que respon a les sol·licituds reals dels usuaris. Una sol·licitud pot semblar poc. Però la inferència es produeix una vegada i una altra. Milions de vegades. De vegades milers de milions. ( Google Research , DOE )
L'energia d'inferència creix amb:
-
longitud de la sol·licitud
-
longitud de sortida
-
nombre d'usuaris
-
requisits de latència
-
característiques multimodals
-
expectatives de temps de funcionament
-
passos de seguretat i postprocessament ( Google Cloud , quantificació, processament per lots i estratègies de publicació en l'ús d'energia de LLM )
Així doncs, l'entrenament és el terratrèmol. La inferència és la marea. Una és dramàtica, l'altra és persistent i totes dues poden remodelar una mica la costa. És una metàfora inusual, potser, però es manté unida... més o menys.
Els costos energètics ocults que la gent oblida 😬
Quan algú estima el consum d'energia de la IA només mirant el xip, normalment està subestimant. No sempre desastrosament, però prou com per tenir importància. ( Google Cloud , IEA )
Aquí teniu les peces amagades:
Refredament ❄️
Els servidors generen calor. El maquinari d'IA potent en genera molta. La refrigeració no és opcional. Cada watt consumit per la computació tendeix a convidar a un major ús d'energia només per mantenir les temperatures estables. ( IEA , Google Cloud )
Moviment de dades 🌐
Moure dades a través d'emmagatzematge, memòria i xarxes també requereix energia. La IA no només "pensa". També barreja informació constantment. ( IEA )
Capacitat inactiva 💤
Els sistemes creats per a la demanda màxima no sempre funcionen a la demanda màxima. La infraestructura inactiva o infrautilitzada encara consumeix electricitat. ( Google Cloud )
Redundància i fiabilitat 🧱
Còpies de seguretat, sistemes de failover, regions duplicades, capes de seguretat: tot valuós, tot forma part d'un panorama energètic més ampli. ( IEA )
Emmagatzematge 📦
Dades d'entrenament, incrustacions, registres, punts de control, sortides generades: tot això viu en algun lloc. L'emmagatzematge és més barat que la computació, és clar, però no és gratuït en termes energètics. ( IEA )
És per això que la pregunta " Quanta energia utilitza la IA?" no es pot respondre bé mirant un únic gràfic de referència. Tot el paquet importa. ( Google Cloud , IEA )
Per què una indicació d'IA pot ser diminuta i la següent pot ser un monstre 📝➡️🎬
No totes les indicacions són iguals. Una sol·licitud breu per reescriure una frase no és comparable a demanar una anàlisi llarga, una sessió de codificació de diversos passos o la generació d'imatges d'alta resolució. ( Google Cloud )
Coses que tendeixen a augmentar el consum d'energia per interacció:
-
Finestres de context més llargues
-
Respostes més llargues
-
Ús de l'eina i passos de recuperació
-
Múltiples passades per al raonament o la validació
-
Generació d'imatges, àudio o vídeo
-
Concurrència més alta
-
Objectius de latència més baixa ( Google Cloud , quantificació, processament per lots i estratègies de publicació en l'ús d'energia de LLM )
Una resposta de text lleugera pot ser relativament barata. Un flux de treball multimodal gegant pot ser, bé, no barat. És una mica com demanar cafè o fer càtering a un casament. Tècnicament, tots dos compten com a "servei de menjar". Un no és com l'altre ☕🎉
Això és especialment important per als equips de producte. Una funció que sembla inofensiva amb poc ús pot tornar-se costosa a gran escala si cada sessió d'usuari esdevé més llarga, més rica i amb més recursos de càlcul. ( DOE , Google Cloud )
La IA de consum i la IA empresarial no són el mateix 🏢📱
La persona mitjana que utilitza la IA de manera casual podria assumir que els seus avisos ocasionals són el gran problema. Normalment, no és allà on rau la història principal de l'energia. ( Google Cloud )
L'ús empresarial canvia les matemàtiques:
-
milers d'empleats
-
copilots sempre encesos
-
processament automatitzat de documents
-
resum de trucades
-
anàlisi d'imatges
-
eines de revisió de codi
-
agents en segon pla que s'executen constantment
Aquí és on el consum agregat d'energia comença a importar molt. No perquè cada acció sigui apocalíptica, sinó perquè la repetició és un multiplicador. ( DOE , IEA )
En les meves pròpies proves i revisions de fluxos de treball, aquí és on la gent es sorprèn. Es centren en el nom del model o en la demostració cridanera i ignoren el volum. El volum sovint és el veritable impulsor, o la salvació, depenent de si esteu facturant als clients o pagant la factura dels serveis públics 😅
Per als consumidors, l'impacte pot semblar abstracte. Per a les empreses, es fa concret molt ràpidament:
-
factures d'infraestructures més grans
-
més pressió per optimitzar
-
més gran necessitat de models més petits sempre que sigui possible
-
informes interns de sostenibilitat
-
més atenció a l'emmagatzematge en memòria cau i l'encaminament ( Google Cloud , Green AI )
Com reduir el consum d'energia de la IA sense renunciar a la IA 🌱
Aquesta part és important perquè l'objectiu no és "deixar d'utilitzar la IA". Normalment això no és realista, i ni tan sols necessari. Un millor ús és la ruta més intel·ligent.
Aquí teniu les palanques més importants:
1. Utilitzeu el model més petit que faci la feina
No totes les tasques necessiten l'opció de pes elevat. Un model més lleuger per a la classificació o el resum pot reduir ràpidament el malbaratament. ( IA verda , Google Cloud )
2. Escurçar les indicacions i els resultats
Introducció detallada, sortida detallada. Els tokens addicionals signifiquen càlcul addicional. De vegades, retallar l'indicador és la victòria més fàcil. ( Estratègies de quantificació, processament per lots i publicació en l'ús energètic de LLM , Google Cloud )
3. Emmagatzemar a la memòria cau els resultats repetits
Si la mateixa consulta continua apareixent, no la generis cada vegada. Això és gairebé ofensivament obvi, però passa desapercebut. ( Google Cloud )
4. Treballs per lots sempre que sigui possible
Executar tasques per lots pot millorar la utilització i reduir el malbaratament. ( Quantització, processament per lots i estratègies de servei en l'ús d'energia de LLM )
5. Enruta les tasques de manera intel·ligent
Utilitzeu models grans només quan la confiança disminueixi o la complexitat de la tasca augmenti. ( IA verda , Google Cloud )
6. Optimitzar la infraestructura
Millor programació, millor maquinari, millor estratègia de refrigeració: coses prosaiques, una gran recompensa. ( Google Cloud , DOE )
7. Mesurar abans de suposar
Molts equips pensen que saben on va l'energia. Aleshores mesuren, i aquí està: la part cara és en un altre lloc. ( Google Cloud )
El treball eficient no és glamurós. Rarament rep aplaudiments. Però és una de les millors maneres de fer que la IA sigui més assequible i més defensable a escala 👍
Mites comuns sobre l'ús de l'electricitat per IA 🚫
Desfem-nos d'alguns mites perquè aquest tema s'enreda ràpidament.
Mite 1: Totes les consultes d'IA són un malbaratament massiu
No necessàriament. Alguns són modestos. L'escala i el tipus de tasca importen molt. ( Google Cloud )
Mite 2: L'entrenament és l'única cosa que importa
No. La inferència pot dominar amb el temps quan l'ús és massiu. ( Google Research , DOE )
Mite 3: Un model més gran sempre significa un millor resultat
De vegades sí, de vegades absolutament no. Moltes tasques funcionen bé amb sistemes més petits. ( IA verda )
Mite 4: El consum d'energia equival automàticament a l'impacte en carboni
No exactament. El carboni també depèn de la font d'energia. ( IEA , Strubell et al. )
Mite 5: Pots obtenir un número universal per al consum d'energia de la IA
No pots, almenys no en una forma que mantingui el sentit. O sí que pots, però estarà tan promediat que deixarà de ser valuós. ( IEA )
Per això, preguntar " Quanta energia utilitza la IA?" és intel·ligent, però només si esteu preparats per a una resposta per capes en lloc d'un eslògan.
Aleshores... quanta energia utilitza realment la IA? 🤔
Aquí teniu la conclusió fonamentada.
La IA utilitza:
-
una mica , per a algunes tasques senzilles
-
molt més , per a la generació multimodal pesada
-
una quantitat molt gran , per a l'entrenament de models a gran escala
-
una quantitat enorme en total , quan milions de sol·licituds s'acumulen al llarg del temps ( Google Cloud , DOE )
Aquesta és la seva forma.
La clau és no aplanar tot el tema en una xifra espantosa o un encongiment de menyspreu. L'ús d'energia de la IA és real. Importa. Es pot millorar. I la millor manera de parlar-ne és amb context, no amb teatralitat. ( IEA , Green AI )
Gran part de la conversa pública oscil·la entre extrems: "la IA és bàsicament gratuïta" d'una banda, "la IA és un apocalipsi elèctric" de l'altra. La realitat és més ordinària, cosa que la fa més informativa. És un problema de sistemes. Maquinari, programari, ús, escala, refrigeració, opcions de disseny. Prosaic? Una mica. Important? Molt. ( IEA , Google Cloud )
Conclusions clau ⚡🧾
Si heu vingut aquí preguntant-vos quanta energia utilitza la IA?, aquí teniu la conclusió:
-
No hi ha un número únic per a tothom
-
L'entrenament sol consumir més energia al principi
-
La inferència esdevé un factor important a escala
-
La mida del model, el maquinari, la càrrega de treball i la refrigeració són tots importants
-
Petites optimitzacions poden marcar una diferència sorprenentment gran
-
La pregunta més intel·ligent no és només "quant", sinó també "per a quina tasca, en quin sistema, a quina escala?" ( IEA , Google Cloud )
Així doncs, sí, la IA utilitza energia real. Prou per merèixer atenció. Prou per justificar una millor enginyeria. Però no d'una manera caricaturesca i numèrica.
Preguntes freqüents
Quanta energia utilitza la IA per a una sola indicació?
No hi ha un nombre universal per a una sola indicació, perquè el consum d'energia depèn del model, el maquinari, la longitud de l'indicació, la longitud del resultat i qualsevol ús d'eines addicionals implicat. Una resposta de text curta pot ser relativament modesta, mentre que una tasca multimodal llarga pot consumir notablement més. La resposta més significativa no és una única xifra del titular, sinó el context que envolta la tasca.
Per què varien tant les estimacions de l'ús d'energia de la IA?
Les estimacions varien perquè la gent sovint compara coses molt diferents sota l'etiqueta única d'IA. Una estimació pot descriure una resposta lleugera d'un chatbot, mentre que una altra pot cobrir la generació d'imatges, el vídeo o l'entrenament de models a gran escala. Perquè una estimació sigui significativa, necessita context com ara el tipus de tasca, la mida del model, el maquinari, la utilització, la refrigeració i la ubicació.
Entrenar la IA o executar-la diàriament és el que suposa un cost energètic més gran?
L'entrenament sol ser el gran esdeveniment energètic inicial, perquè pot implicar molts xips que s'executen durant llargs períodes a través de conjunts de dades enormes. La inferència és el cost continu que apareix cada vegada que els usuaris envien sol·licituds i, a gran escala, també pot arribar a ser molt gran. A la pràctica, tots dos importen, tot i que importen de maneres diferents.
Què fa que una sol·licitud d'IA consumeixi molta més energia que una altra?
Les finestres de context més llargues, les sortides més llargues, les passades de raonament repetides, les crides a eines, els passos de recuperació i la generació multimodal tendeixen a augmentar el consum d'energia per interacció. Els objectius de latència també importen, perquè els requisits de resposta més ràpida poden reduir l'eficiència. Una petita sol·licitud de reescriptura i un flux de treball de codificació o imatge llarg simplement no són comparables.
Quins costos energètics ocults passen per alt la gent quan pregunta quanta energia utilitza la IA?
Molta gent només se centra en el xip, però això passa per alt la refrigeració, el moviment de dades, l'emmagatzematge, la capacitat inactiva i els sistemes de fiabilitat com ara les còpies de seguretat o les regions de failover. Aquestes capes de suport poden canviar materialment la petjada total. És per això que un punt de referència per si sol poques vegades captura la imatge energètica completa.
Un model d'IA més gran sempre utilitza més energia?
Els models més grans solen requerir més càlcul i memòria, especialment per a sortides llargues o complexes, de manera que sovint consumeixen més energia. Però més gran no significa automàticament millor per a cada tasca, i l'optimització pot alterar considerablement la imatge. Els models especialitzats més petits, la quantificació, l'emmagatzematge per lots, l'emmagatzematge en memòria cau i l'enrutament més intel·ligent poden millorar l'eficiència.
L'ús de la IA dels consumidors és el principal problema energètic o la IA empresarial és el problema més gran?
L'ús ocasional per part del consumidor pot sumar, però la història de l'energia més gran sovint apareix en implementacions empresarials. Els copilots sempre actius, el processament de documents, el resum de trucades, la revisió de codi i els agents en segon pla creen una demanda repetida en grans bases d'usuaris. El problema sol ser menys una acció dramàtica i més un volum sostingut al llarg del temps.
Quanta energia utilitza la IA quan s'hi inclouen els centres de dades i la refrigeració?
Un cop s'inclou el sistema més ampli, la resposta esdevé més realista i normalment és més gran del que suggereixen les estimacions només de xips. Els centres de dades necessiten energia no només per a la computació, sinó també per a la refrigeració, la creació de xarxes, l'emmagatzematge i el manteniment de la capacitat disponible. És per això que el disseny de la infraestructura i l'eficiència de les instal·lacions importen gairebé tant com el disseny del model.
Quina és la manera més pràctica de mesurar el consum d'energia de la IA en un flux de treball real?
El millor mètode depèn de qui mesura i amb quin propòsit. Una regla general pot ajudar amb comparacions ràpides, mentre que els wattímetres, la telemetria de la GPU, els registres de facturació al núvol i els informes del centre de dades proporcionen una visió operativa progressivament més sòlida. Per a treballs seriosos de sostenibilitat, una visió del cicle de vida més completa és encara més sòlida, tot i que és més lenta i exigent.
Com poden els equips reduir el consum d'energia de la IA sense renunciar a funcions útils de la IA?
Els majors guanys solen provenir d'utilitzar el model més petit que encara fa la feina, escurçant les indicacions i els resultats, emmagatzemant a la memòria cau els resultats repetits, agrupant el treball per lots i encaminant només les tasques més difícils a models més grans. L'optimització de la infraestructura també és important, especialment la programació i l'eficiència del maquinari. En molts processos de processament, mesurar primer ajuda a evitar que els equips optimitzin el que no és correcte.
Referències
-
Agència Internacional de l'Energia (AIE) - Demanda d'energia de la IA - iea.org
-
Departament d'Energia dels EUA (DOE) - El DOE publica un nou informe que avalua l'augment de la demanda d'electricitat als centres de dades - energy.gov
-
Google Cloud : mesurament de l'impacte ambiental de la inferència d'IA - cloud.google.com
-
Google Research : bones notícies sobre la petjada de carboni de la formació en aprenentatge automàtic - research.google
-
Google Research : la petjada de carboni de la formació en aprenentatge automàtic s'anivellarà i després es reduirà - research.google
-
arXiv - IA verda - arxiv.org
-
arXiv - Strubell et al. - arxiv.org
-
arXiv - Quantificació, lots i estratègies de servei en l'ús d'energia de LLM - arxiv.org