Amazon està en converses per invertir 10.000 milions de dòlars en el desenvolupador de ChatGPT
Segons sembla, Amazon està en converses per invertir més de 10.000 milions de dòlars en OpenAI, i si realment passa, impulsaria la valoració d'OpenAI a la zona de "espera, de debò?" per sobre dels 500.000 milions de dòlars. S'està posicionant com una barreja de finançament i alineació estratègica... a més del motivador més simple de tots: la fam de computació.
L'informe també suggereix que OpenAI podria basar-se més en la capacitat d'AWS i potencialment començar a utilitzar els xips Trainium d'Amazon, convertint-ho bàsicament en una línia de subministrament per a la propera onada d'escalat de models (o això sembla, però aquestes converses poden trontollar).
🔗 Llegiu-ne més
🧑💻 Els desenvolupadors ara poden enviar aplicacions a ChatGPT
OpenAI ha obert les propostes d'aplicacions per a la seva revisió i publicació dins de ChatGPT, juntament amb un directori d'aplicacions dins del producte on la gent pot navegar per les aplicacions destacades o cercar qualsevol cosa publicada. Les aplicacions es poden activar a mitja conversa mitjançant @mencions o seleccionades al menú d'eines, molt "d'aplicacions, però natiu del xat"
També estan impulsant un SDK d'aplicacions (beta) a més d'un conjunt de recursos de desenvolupament (exemples, biblioteca d'IU, inici ràpid). La monetització és cautelosa per ara (principalment enllaça per completar transaccions), però està força clar que OpenAI vol que això creixi fins a convertir-se en un ecosistema real.
🔗 Llegiu-ne més
🗞️ Presentació de l'OpenAI Academy per a organitzacions de notícies
OpenAI ha llançat un centre d'aprenentatge dirigit a periodistes, editors i editorials, creat amb socis com l'American Journalism Project i The Lenfest Institute. El discurs: formació pràctica i manuals que ajudin les sales de redacció a utilitzar la IA sense erosionar silenciosament la confiança en el procés.
El programa de llançament de l'Acadèmia inclou "Fonaments de la IA per a periodistes", a més de casos d'ús com ara recerca d'antecedents/investigació, traducció, anàlisi de dades i eficiència de la producció. També hi ha un èmfasi molt notable en l'ús responsable i la governança interna, perquè, sí, algú ha d'escriure el document de polítiques que ningú vol escriure.
🔗 Llegiu-ne més
⚡ Gemini 3 Flash: intel·ligència de frontera creada per a la velocitat
Google va llançar Gemini 3 Flash com un model més ràpid i rendible, i el va convertir en el predeterminat a l'aplicació Gemini i al mode IA de la cerca. L'argument és bàsicament "Raonament de nivell professional, velocitat de nivell Flash", que sona com un eslògan... però també descriu tota la cursa actual.
També s'està implementant a través de plataformes per a desenvolupadors i empreses (Gemini API, AI Studio, Vertex AI i més). El subtext estranyament important: Google vol aquest model a tot arreu on la gent ja és, de manera que els costos de canvi comencen a semblar força greu.
🔗 Llegiu-ne més
🧩 OpenUSD i NVIDIA Halos acceleren la seguretat per a robotaxis i sistemes d'IA física
NVIDIA està agrupant estàndards de simulació i fluxos de treball de seguretat en una pila d'"IA física" més coherent: robots i vehicles autònoms que han de sobreviure al caos del món real. Un ingredient clau és l'especificació principal d'OpenUSD 1.0, destinada a fer que les pipelines de simulació/3D siguin més predictibles i interoperables entre eines.
Pel que fa a la seguretat, NVIDIA destaca el Laboratori d'Inspecció de Sistemes d'IA Halos (i el programa de certificació) per a flotes de robotaxis, piles AV, sensors i plataformes. Entre els primers participants nomenats hi ha Bosch, Nuro i Wayve, i Onsemi va ser el primer a passar la inspecció, un petit moment agradable de "desbloqueig de la insígnia".
🔗 Llegiu-ne més
🧪 El laboratori de la UC San Diego avança en la recerca d'IA generativa amb el sistema NVIDIA DGX B200
El Hao AI Lab de la UC San Diego va rebre un sistema NVIDIA DGX B200 per impulsar la recerca sobre la inferència LLM de baixa latència: la fontaneria poc glamurosa que decideix si "la IA es sent instantània" o "la IA sembla esperar torrades". NVIDIA també assenyala que els sistemes d'inferència de producció com Dynamo es basen en conceptes del treball del laboratori, inclòs DistServe.
La història se centra molt en el "goodput" enfront del throughput, bàsicament, un throughput que encara assoleix els objectius de latència. També descriuen la divisió de l'ompliment previ i la descodificació entre diferents GPU per reduir la interferència dels recursos, cosa que és friqui, sí, però és el tipus de friqui que canvia la sensació d'un producte.
🔗 Llegiu-ne més
🏗️ Hut 8 signa un acord de capacitat de 245 MW amb Fluidstack com a part d'una associació multigigawatt amb Anthropic
Hut 8 va signar un acord a llarg termini per 245 MW de capacitat al seu campus de River Bend, arrendant-lo a l'empresa de núvol d'IA Fluidstack en una estructura valorada en 7.000 milions de dòlars (amb opcions que podrien impulsar-la molt més). Anthropic està vinculada com a usuari final a través de l'associació més àmplia: es tracta d'una infraestructura de criptomineria que torna a pivotar cap al múscul de la IA, només que... més gran.
També hi ha un dret de primera oferta per fins a 1 GW addicional a River Bend, a més de la participació financera dels principals bancs i un salvavides de Google. Sincerament, tot plegat sembla que "la IA vol energia i béns immobles, i els vol ahir".
🔗 Llegiu-ne més