🏛️ El govern crearà un nou laboratori per mantenir el Regne Unit a l'avantguarda dels avenços en IA ↗
El Regne Unit està creant un Laboratori de Recerca en IA Fonamental amb el suport del govern, presentant-lo com una feina "inesperada", del tipus que és arriscada, lenta i que de vegades val la pena de manera que tothom sembla que s'hagi adormit. ( GOV.UK )
L'objectiu no és només "models més grans, més GPU", sinó que també s'aborda la qüestió de defectes persistents com ara al·lucinacions, memòria curta i raonament imprevisible, a més de donar accés als investigadors a càlculs seriosos a través del Recurs de Recerca d'IA. Sona molt sensat... i també, discretament, com un intent d'evitar que les millors ments del Regne Unit siguin instantàniament desplaçades a altres llocs. ( GOV.UK )
🧨 El CEO de Nvidia insinua la fi de les inversions en OpenAI i Anthropic ↗
Jensen Huang està indicant que Nvidia potser no continuarà invertint en laboratoris d'IA de frontera de la mateixa manera, ja que la dinàmica de les sortides a borsa (i l'escala dels controls que es discuteixen) fa que aquest tipus de finançament sigui més difícil d'aconseguir. ( Reuters )
És un canvi de to que val la pena registrar: Nvidia és el rei dels pics i les pales de tot aquest boom, però insinua que "posseir trossos dels miners" ja no sempre és la jugada. O potser només és una mesura de consciència, cosa que fan els CEO, com respirar. ( Reuters )
🧩 Exclusiva: Un gran grup tecnològic dóna suport a Anthropic en la lluita contra el Pentàgon, ja que els inversors pressionen per reduir l'enfrontament per les garanties d'IA ↗
L'enfrontament d'Anthropic amb el Pentàgon s'està convertint en una olla a pressió: els inversors, segons sembla, volen baixar la temperatura, mentre que l'empresa intenta mantenir la seva posició pel que fa al llenguatge de salvaguarda (especialment pel que fa a la vigilància). ( Reuters )
El subtext de la història és gairebé més sorollós que el text: a l'era de la IA, la redacció dels contractes no és "criticació legal", sinó bàsicament política de producte, i decideix si un model es converteix en una eina, una arma o una responsabilitat extensa. ( Reuters )
🪖 Sam Altman admet que OpenAI no pot controlar l'ús de la IA per part del Pentàgon ↗
Altman va dir al personal que OpenAI no pot controlar com el Pentàgon utilitza la seva IA un cop desplegada, cosa que sona amb un soroll sord perquè anomena la por exacta que la gent ha estat envoltant. ( The Guardian )
El teló de fons més ampli és l'augment de la fricció entre "ajudarem, amb normes" i "ajudarem, punt final", a més de les conseqüències negatives internes i públiques quan l'adopció militar es percep precipitada o oportunista. L'ètica aquí és menys una línia clara i més un vessament de pintura humida: tothom hi entra i després discuteix de qui és la sabata. ( The Guardian )
🧬 Nova beca d'IA en genòmica amb el Sanger Institute i Google DeepMind ↗
El Wellcome Sanger Institute llança una beca acadèmica finançada per DeepMind centrada en l'aplicació de la IA a la genòmica, posicionada com la primera plaça d'aquest tipus per a un becari DeepMind en aquesta àrea específica. ( sanger.ac.uk )
El que és interessant (i, francament, una mica refrescant) és l'èmfasi en problemes de genòmica poc explorats on la IA encara no és a tot arreu, a més de la nota explícita que DeepMind no dirigeix la recerca del becari. És com donar un coet a algú i dir-li "vés a descobrir alguna cosa", en lloc de "vés a optimitzar la nostra guia". ( sanger.ac.uk )
Preguntes freqüents
Què és el Laboratori de Recerca en IA Fonamental, finançat pel govern del Regne Unit, i què farà?
El Laboratori de Recerca en IA Fonamental, finançat pel govern, s'està posicionant com un esforç de recerca "de cel blau", un treball d'alt risc que pot trigar a donar els seus fruits. En lloc de concentrar-se només en escalar models cada cop més grans, pretén abordar problemes persistents com ara al·lucinacions, memòria curta i raonament imprevisible. L'argument és que els avenços provenen dels fonaments, no només d'afegir més GPU.
Com podria el Laboratori de Recerca en Intel·ligència Artificial del Regne Unit ajudar els investigadors a accedir a la computació seriosa?
Juntament amb el Laboratori de Recerca en Intel·ligència Artificial del Regne Unit, el pla destaca l'accés a una capacitat de càlcul substancial a través del Recurs de Recerca en Intel·ligència Artificial. A la pràctica, això tendeix a significar que els investigadors poden dur a terme experiments que d'altra manera estarien limitats pel cost o la infraestructura. També permet als equips provar idees a una escala on problemes com la fiabilitat i la robustesa esdevenen concrets, no només teòrics.
Per què el Regne Unit posa èmfasi en les al·lucinacions, la memòria curta i el raonament imprevisible?
Aquestes debilitats són del tipus que afloren en el desplegament i poden erosionar ràpidament la confiança. L'enfocament declarat suggereix que l'objectiu no és només la capacitat, sinó la fiabilitat: reduir els resultats inventats, millorar la manera com els models gestionen un context més llarg i fer que el raonament sigui menys erràtic. Aquest tipus de treball sovint és més lent i arriscat, per això s'emmarca com a recerca fonamental.
Què indica realment el canvi de to d'Nvidia sobre la inversió en OpenAI o Anthropic?
L'informe ho emmarca com un indici que Nvidia potser no continuarà invertint en laboratoris de frontera de la mateixa manera, sobretot perquè la dinàmica de les sortides a borsa i les enormes mides dels xecs compliquen aquesta estratègia. Fins i tot com a líder "pica i paleja" en maquinari d'IA, suggereix que les participacions en la propietat no sempre són la millor opció. També podria ser un missatge cautelós, cosa habitual en els comentaris dels executius.
Per què és tan important la disputa d'Anthropic al Pentàgon sobre el "llenguatge de salvaguarda"?
El punt clau de l'article és que la redacció del contracte pot convertir-se en política de producte, especialment quan toca vigilància i altres usos sensibles. Segons sembla, els inversors volen reduir el xoc, mentre que l'empresa intenta mantenir la seva posició sobre les salvaguardes. En moltes implementacions d'IA, aquestes clàusules configuren per a què es pot utilitzar el sistema i quins riscos accepta efectivament l'empresa.
Què vol dir quan Sam Altman diu que OpenAI no pot controlar com el Pentàgon utilitza la IA?
Descriu una limitació pràctica: un cop desplegada una eina, el desenvolupador original pot tenir una capacitat limitada per governar l'ús posterior. Això té un gran impacte perquè apunta a la por principal que la gent planteja sobre l'adopció militar: poden existir normes en la fase de contractació, però el seu compliment pot ser difícil. També reflecteix una tensió més àmplia entre "ajudar, amb restriccions" i "ajudar, independentment"