Notícies d'IA 9 de març de 2026

Resum de notícies sobre IA: 9 de març de 2026

⚖️ Anthropic demana a l'empresa que bloquegi la inclusió a la llista negra del Pentàgon per restriccions a l'ús de la IA

Anthropic ha portat la seva lluita amb el Pentàgon als tribunals després de ser etiquetada com un risc per a la cadena de subministrament. L'empresa diu que la mesura va ser una represàlia il·legal per negar-se a relaxar les barreres de seguretat al voltant de les armes autònomes i la vigilància domèstica, cosa que situa aquesta disputa entre els punts d'inflamació més inflamables en la política d'IA ara mateix. ( Reuters )

El govern vol flexibilitat per a "qualsevol ús legal", mentre que Anthropic argumenta que els laboratoris privats encara haurien de poder establir línies de seguretat estrictes. Aquesta s'ha convertit en una de les proves més clares fins ara sobre si una empresa d'IA pot dir "no" a les condicions militars sense ser aixafada per això. ( Reuters )

🧑💻 Empleats d'OpenAI i Google donen suport a la demanda d'Anthropic contra el Pentàgon

Aquesta demanda va obtenir ràpidament suport també des de laboratoris rivals. Gairebé 40 empleats d'OpenAI i Google van donar suport a Anthropic en un escrit amicus curiae, argumentant que prendre represàlies contra empreses per les línies vermelles de seguretat de la IA va en contra de l'interès públic. ( The Verge )

Així doncs, sí, els competidors s'han trobat de sobte al mateix bàndol, almenys en aquest punt. L'encàrrec se centra en la vigilància massiva i les armes autònomes poc fiables, cosa que fa que tot plegat sembli menys un franctirador estàndard de Silicon Valley i més una autèntica línia industrial a la sorra... o al fang, potser. ( The Verge )

🛡️ OpenAI adquireix Promptfoo per assegurar els seus agents d'IA

OpenAI ha anunciat que comprarà Promptfoo, una startup centrada en la protecció de grans models de llenguatge contra atacs adversaris. El pla és integrar la seva tecnologia a OpenAI Frontier, la plataforma empresarial de l'empresa per a agents d'IA. ( TechCrunch )

És un moviment revelador. Tothom vol que la IA agentiva faci més, més ràpid, a tot arreu, però el vessant de la seguretat s'ha quedat enrere, ja sigui per poc o per molt. Aquest acord suggereix que OpenAI creu que la propera gran cursa no és només per a agents més intel·ligents, sinó també per a agents més segurs. ( TechCrunch )

🧪 Anthropic llança una eina de revisió de codi per controlar la quantitat de codi generat per IA

Anthropic va implementar Code Review dins de Claude Code, dirigit a equips que s'ofeguen en pull requests creades per eines de codificació d'IA. Utilitza diversos agents en paral·lel per escanejar codi, marcar problemes de lògica, classificar la gravetat i deixar comentaris directament a GitHub. ( TechCrunch )

L'argument és prou simple: la IA genera codi més ràpid del que els humans poden revisar-lo sensatament, així que ara la IA ha de revisar la IA. Una solució lleugerament semblant a la d'una serp que es menja la cua, però pràctica. Anthropic diu que està orientada a usuaris empresarials que ja veuen una producció massiva de codi de Claude Code. ( TechCrunch )

💰 Nscale, recolzada per Nvidia, valorada en 14.600 milions de dòlars en una nova ronda de finançament

L'empresa britànica d'infraestructures d'IA Nscale va recaptar 2.000 milions de dòlars en una ronda de Sèrie C, amb una valoració de 14.600 milions de dòlars. Entre els patrocinadors hi havia Aker, 8090 Industries, Nvidia, Citadel, Dell i Jane Street, cosa que equival a un vot de confiança força important. ( Reuters )

Aquest importa perquè no és un altre llançament de models ni un ajust de chatbot. És el costat del boom de "picar i treure": computació, infraestructura, capacitat, tota la maquinària pesada que hi ha darrere la cortina. Potser no és glamurós, però és per on ara s'estan produint grans quantitats de diners. ( Reuters )

🧠 AMI Labs de Yann LeCun recapta 1.030 milions de dòlars per construir models mundials

La nova empresa de Yann LeCun, AMI Labs, va recaptar 1.030 milions de dòlars amb una valoració pre-money de 3.500 milions de dòlars. L'empresa persegueix "models mundials", és a dir, sistemes d'IA destinats a aprendre de la realitat mateixa en lloc de principalment del llenguatge. ( TechCrunch )

Això és un canvi filosòfic directe contra el consens actual, ple de l'LLM, i també notablement contundent. LeCun ha argumentat durant anys que els models lingüístics actuals no ens portaran fins al nivell d'intel·ligència humà, de manera que aquesta augment converteix aquest argument en un experiment molt car. ( TechCrunch )

🇨🇳 Els centres tecnològics xinesos promocionen l'agent d'IA OpenClaw malgrat els avisos de seguretat

Diversos governs locals xinesos donen suport a OpenClaw, un agent d'IA que s'està estenent ràpidament malgrat les preocupacions de seguretat relacionades amb el seu accés a dades personals. Així doncs, l'estat d'ànim oficial sembla ser: sí, hi ha riscos, i sí, escalem-ho igualment. ( Reuters )

Aquesta divisió és la història. Els centres locals volen l'alça econòmica i l'impuls de l'ecosistema, mentre que els reguladors alerten sobre l'exposició de dades. Ja és un patró familiar de la IA: primer sprint, després endreçar les barreres, o això sembla. ( Reuters )

Preguntes freqüents

Per què Anthropic demana al Pentàgon per les restriccions a l'ús de la IA?

Anthropic diu que el Pentàgon ho va qualificar de risc per a la cadena de subministrament després que l'empresa rebutgés termes més amplis que podrien estendre's a armes autònomes i vigilància domèstica. Això fa que la demanda sigui més que la condició de proveïdor. Està provant si un laboratori d'IA pot mantenir uns límits de seguretat ferms i continuar competint per treballs governamentals sense ser penalitzat.

Per què els empleats d'OpenAI i Google donen suport a Anthropic en aquesta disputa sobre la seguretat de la IA?

L'informe amicus curiae indica que moltes persones dins de laboratoris rivals veuen això com un problema de seguretat de la IA que marcarà un precedent, no només una baralla entre una empresa i una agència. La seva preocupació és que castigar un proveïdor per mantenir línies vermelles podria pressionar el mercat en general per debilitar les garanties. A la pràctica, això podria influir en la manera com es negocien els futurs contractes d'IA de defensa i del sector públic.

Què podria canviar el cas Antròpic-Pentàgon per a la política d'IA i els contractes de defensa?

Si Anthropic guanya, les empreses d'IA podrien tenir una base més sòlida per definir usos inacceptables, fins i tot quan venen a entorns governamentals sensibles. Si perd, les agències podrien obtenir avantatge per exigir termes d'"ús legal" més amplis als proveïdors. Sigui com sigui, és probable que aquesta disputa influeixi en el llenguatge de les adquisicions, les revisions de riscos i la manera com s'inclouen les baranes de seguretat en els acords de defensa.

Per què OpenAI va comprar Promptfoo per a agents d'IA?

Promptfoo és conegut per provar models de llenguatge grans contra indicacions contradictòries i altres debilitats de seguretat. Incorporar aquest tipus d'eines a la plataforma d'agents empresarials d'OpenAI suggereix que l'empresa veu la implementació més segura com un avantatge competitiu en lloc d'una tasca secundària. A mesura que els agents d'IA assumeixen una feina més substancial, les proves de resiliència i abús es tornen molt més difícils d'ignorar.

Com poden els equips gestionar la allau de codi generat per IA de manera més segura?

La nova funció de revisió de codi d'Anthropic dins de Claude Code està dirigida a equips desbordats per les sol·licituds d'extracció generades per eines de codificació d'IA. Utilitza diversos agents en paral·lel per detectar problemes lògics, classificar la gravetat i deixar comentaris a GitHub. Normalment, eines com aquesta ajuden a classificar el volum, però els revisors humans continuen sent importants per a l'arquitectura, el context i l'aprovació final.

Per què està rebent tanta inversió en infraestructura d'IA ara mateix?

La darrera ronda de finançament de Nscale destaca que la indústria de la IA encara està invertint un capital enorme en computació, infraestructura i capacitat. Aquesta despesa pot ser menys visible que el llançament d'un model cridaner, però és la base de tot. Quan la demanda de formació i desplegament continua augmentant, les empreses que venen els pics i les pales sovint es converteixen en algunes de les majors guanyadores.

Què són els models mundials i per què Yann LeCun hi aposta?

Els models del món són sistemes d'IA dissenyats per aprendre de com es comporta el món, en lloc de basar-se principalment en dades lingüístiques. Això és important perquè Yann LeCun fa temps que defensa que els models lingüístics per si sols no poden assolir el nivell d'intel·ligència humà. AMI Labs converteix aquest punt de vista en una aposta comercial important en un camí diferent per a la recerca avançada en IA.

Per què els centres tecnològics xinesos donen suport a OpenClaw malgrat els avisos de seguretat?

La història d'OpenClaw mostra una divisió familiar dins dels mercats tecnològics en ràpid moviment: els governs locals volen creixement, subvencions i impuls de l'ecosistema, mentre que els reguladors es preocupen per l'exposició i la seguretat de les dades. El suport a l'agent malgrat els avisos suggereix que els incentius econòmics prevalen en alguns llocs. Per als observadors, és un altre recordatori que l'adopció sovint avança més ràpid que la supervisió.

Notícies d'IA d'ahir: 8 de març de 2026

Troba la darrera versió d'IA a la botiga oficial d'assistents d'IA

Sobre nosaltres

Torna al bloc